언캐니 밸리(Uncanny Valley)를 넘어서: 안드로이드에서 실제와 같은 표정을 구현하는 기술의 혁신
오사카 대학이 이끄는 연구 그룹은 얼굴 움직임을 중첩된 감쇠파로 합성하여 안드로이드가 "흥분"이나 "졸음"과 같은 기분 상태를 동적으로 표현할 수 있는 기술을 개발했습니다.
안드로이드의 모습이 사진에서 인간으로 착각될 만큼 사실적이더라도, 직접 움직이는 것을 보면 약간 불안해질 수 있습니다. 미소 짓거나, 찡그리거나, 다른 다양하고 친숙한 표정을 보일 수 있지만, 그러한 표정 뒤에 일관된 감정 상태를 찾는 것은 어려울 수 있으며, 그것이 진정으로 무엇을 느끼는지 확신할 수 없고 불안감을 느끼게 됩니다.
지금까지 안드로이드처럼 얼굴의 많은 부분을 움직일 수 있는 로봇이 장시간 얼굴 표정을 보이도록 허용할 때 '패치워크 방식'이 사용되었습니다. 이 방법은 필요에 따라 이러한 시나리오를 전환하는 동안 부자연스러운 얼굴 움직임이 배제되도록 하기 위해 여러 개의 미리 준비된 액션 시나리오를 준비하는 것을 포함합니다.
하지만 이 방법은 복잡한 액션 시나리오를 미리 준비하고, 전환 중에 눈에 띄는 부자연스러운 움직임을 최소화하고, 전달되는 표정을 미묘하게 제어하기 위해 움직임을 미세하게 조정해야 하는 등의 실질적인 과제를 안겨줍니다.
이 연구에서 주저자 히사시 이시하라와 그의 연구 그룹은 "호흡", "깜박임", "하품"과 같은 얼굴 움직임을 구성하는 다양한 제스처를 개별 파동으로 표현하는 "파형 움직임"을 사용하여 동적 얼굴 표정 합성 기술을 개발했습니다. 이러한 파동은 관련 얼굴 영역으로 전파되고 실시간으로 복잡한 얼굴 움직임을 생성하기 위해 중첩됩니다. 이 방법은 복잡하고 다양한 동작 데이터를 준비할 필요성을 없애는 동시에 눈에 띄는 움직임 전환을 피합니다.
또한 로봇의 내부 상태에 따라 개별 파형을 조절하는 '파형 변조'를 도입해 기분 등 내부 조건의 변화를 얼굴 움직임의 변화로 즉각적으로 반영할 수 있습니다.
"동적 얼굴 표정 합성에 대한 이 연구를 발전시키면 복잡한 얼굴 움직임을 할 수 있는 로봇이 더욱 생생한 표정을 보이고 주변 상황, 특히 인간과의 상호 작용에 반응하는 기분 변화를 전달할 수 있게 될 것입니다." 수석 저자인 오스카 고이치가 말했습니다. "이것은 인간과 로봇 간의 감정적 소통을 크게 풍부하게 할 수 있습니다."
이시하라는 "표면적인 움직임을 만드는 것보다, 안드로이드의 모든 세부적인 행동에 내부 감정이 반영되는 시스템을 더욱 개발하면 마음이 있는 것으로 인식되는 안드로이드를 만드는 데 도움이 될 수 있다"고 덧붙였습니다.
이 기술은 감정을 적응적으로 조절하고 표현하는 기능을 실현함으로써 커뮤니케이션 로봇의 가치를 크게 높여 인간과 보다 자연스럽고 인간다운 방식으로 정보를 교환할 수 있을 것으로 기대됩니다.
출처: https://www.sciencedaily.com/releases/2024/12/241223135211.htm
댓글 없음
아름다운 덧글로 인터넷문화를 선도해 주세요