발부터: AI가 유아가 세상과 연결되는 방식을 공개
컴퓨팅과 인공지능의 최근 발전과 유아 학습에 대한 통찰력은 머신 러닝과 딥 러닝 기술이 유아가 무작위적인 탐색적 움직임에서 의도적인 행동으로 어떻게 전환되는지 연구하는 데 도움이 될 수 있음을 시사합니다. 대부분의 연구는 아기의 자발적인 움직임에 초점을 맞추었으며, 안절부절못하는 행동과 안절부절못하지 않는 행동을 구별했습니다.
초기 움직임은 혼란스러워 보일 수 있지만, 영아가 주변 환경과 상호 작용할 때 의미 있는 패턴을 보여줍니다. 그러나 우리는 여전히 영아가 주변 환경과 의도적으로 어떻게 상호 작용하는지, 그리고 목표 지향적 행동을 이끄는 원칙에 대한 이해가 부족합니다.
플로리다 애틀랜틱 대학교 연구원과 협력자들은 1960년대 후반부터 발달 연구에 사용된 아기 모바일 실험을 수행하여 영아가 어떻게 의도적으로 행동하기 시작하는지 조사했습니다. 아기 모바일 실험은 영아의 발에 부드럽게 고정된 다채로운 모바일을 사용합니다. 아기가 차면 모바일이 움직이면서 영아의 행동을 보는 것과 연결합니다. 이러한 설정은 연구자들이 영아가 어떻게 움직임을 제어하고 주변 환경에 영향을 미치는 능력을 발견하는 데 도움이 됩니다.
이 새로운 연구에서 연구자들은 AI 도구가 유아의 움직임 패턴에서 복잡한 변화를 포착할 수 있는지 테스트했습니다. Vicon 3D 모션 캡처 시스템을 사용하여 추적한 유아의 움직임은 자발적인 행동에서 모바일이 움직일 때의 반응까지 다양한 유형으로 분류되었습니다. 연구자들은 다양한 AI 기술을 적용하여 어떤 방법이 다양한 상황에서 유아의 행동의 뉘앙스를 가장 잘 포착하는지, 그리고 움직임이 시간이 지남에 따라 어떻게 진화했는지 조사했습니다.
Scientific Reports에 게재된 연구 결과는 AI가 영유아의 초기 발달과 상호작용을 이해하는 데 귀중한 도구라는 점을 강조합니다. 머신 러닝과 딥 러닝 방법 모두 5초 분량의 3D 영유아 움직임 클립을 실험의 다른 단계에 속하는 것으로 정확하게 분류했습니다. 이러한 방법 중에서 딥 러닝 모델인 2D-CapsNet이 가장 좋은 성과를 보였습니다. 중요한 점은 테스트한 모든 방법에서 발의 움직임이 가장 높은 정확도를 보였다는 것입니다. 즉, 신체의 다른 부분에 비해 발의 움직임 패턴이 실험의 모든 단계에서 가장 극적으로 변했다는 것을 의미합니다.
"이 발견은 AI 시스템에 실험이나 유아의 신체 어느 부분이 모바일에 연결되어 있는지에 대한 정보가 전혀 전달되지 않았기 때문에 중요합니다. 이는 발이 엔드 이펙터로서 모바일과의 상호작용에 가장 큰 영향을 받는다는 것을 보여줍니다." FAU Charles E. Schmidt College of Science 내 복잡계 및 뇌 과학 센터의 Glenwood and Martha Creech 저명한 과학 학자이자 공동 저자인 Scott Kelso 박사의 말입니다. "즉, 유아가 환경과 연결되는 방식이 세상과 접촉하는 지점에서 가장 큰 영향을 미칩니다. 여기서는 '먼저 발'이었습니다."
2D-CapsNet 모델은 발 움직임을 분석할 때 86%의 정확도를 달성했으며 움직임 중에 다양한 신체 부위 간의 자세한 관계를 포착할 수 있었습니다. 테스트된 모든 방법에서 발 움직임은 일관되게 가장 높은 정확도를 보였습니다. 손, 무릎 또는 전신 움직임보다 약 20% 더 높았습니다.
"우리는 유아들이 모바일을 제어할 기회를 갖기 전보다 모바일에서 분리된 후에 더 많이 탐색한다는 것을 발견했습니다. 모바일을 제어할 수 있는 능력을 잃으면 세상과 상호 작용하여 다시 연결할 수 있는 수단을 찾는 데 더 열의를 보이는 것 같습니다." FAU 복잡계 및 뇌 과학 센터의 공동 저자이자 박사후 연구원인 알리자 슬론 박사의 말입니다. "그러나 일부 유아는 이 분리 단계에서 모바일과의 이전 상호 작용에 대한 힌트가 포함된 움직임 패턴을 보였습니다. 이는 특정 유아만이 모바일과의 관계를 잘 이해하여 그러한 움직임 패턴을 유지할 수 있었고, 모바일에서 연결이 끊어진 후에도 여전히 반응을 보일 것으로 기대했음을 시사합니다."
연구자들은 분리 중에도 유아의 움직임 정확도가 높게 유지된다면 유아가 이전 상호작용에서 무언가를 배웠다는 것을 나타낼 수 있다고 말합니다. 그러나 움직임의 유형이 다르면 유아가 발견한 내용에 따라 다른 의미를 가질 수 있습니다.
"유아를 연구하는 것은 성인을 연구하는 것보다 더 어렵다는 점을 알아두는 것이 중요합니다. 유아는 말로 소통할 수 없기 때문입니다." FAU 심리학과 교수이자 FAU WAVES 연구실 소장이며 Charles E. Schmidt College of Science 내 복잡계 및 뇌 과학 센터 회원인 공동 저자 낸시 에런 존스 박사의 말입니다. "성인은 지시를 따르고 자신의 행동을 설명할 수 있지만 유아는 그렇지 못합니다. 바로 이 부분에서 AI가 도움이 될 수 있습니다. AI는 연구자들이 유아의 움직임과 심지어 정지 상태의 미묘한 변화를 분석하여 말하기 전에도 유아가 어떻게 생각하고 배우는지에 대한 통찰력을 제공하는 데 도움을 줄 수 있습니다. 유아의 움직임은 또한 유아가 발달하면서 발생하는 엄청난 개인 차이를 이해하는 데 도움이 될 수 있습니다."
각 유아마다 AI 분류 정확도가 어떻게 변하는지 살펴보면 연구자들은 유아가 언제, 어떻게 세상과 교류하기 시작하는지 이해할 수 있는 새로운 방법을 얻게 됩니다.
"과거 AI 방법은 주로 임상적 결과와 관련된 자발적인 움직임을 분류하는 데 초점을 맞추었지만, 이론 기반 실험과 AI를 결합하면 특정 맥락과 관련된 유아 행동에 대한 더 나은 평가를 만드는 데 도움이 될 것입니다."라고 켈소는 말했습니다. "이를 통해 위험을 식별하고, 장애를 진단하고, 치료하는 방법을 개선할 수 있습니다."
연구 공동 저자는 제1 저자인 마수드 코다다자데 박사(전 북아일랜드 데리의 얼스터 대학교, 현재 영국 베드퍼드셔 대학교)와 영국 바스 대학교의 데미안 코일 박사입니다.
이 연구는 영국 공학 및 물리 과학 연구 위원회에서 자금을 지원한 북아일랜드 고성능 컴퓨팅 시설이 제공하는 Tier 2 고성능 컴퓨팅 리소스, 공학 및 물리 연구 위원회에서 자금을 지원한 영국 연구 및 혁신 튜링 AI 펠로우십(2021-2025), 부총장 연구 장학금, 베드퍼드셔 대학교 응용 컴퓨팅 연구소, FAU 재단(과학 분야 저명 학자), 미국 국립 보건원의 지원을 받았습니다.
출처: https://www.sciencedaily.com/releases/2024/10/241001114836.htm
댓글 없음
아름다운 덧글로 인터넷문화를 선도해 주세요