미국의 로봇 이모는 반대편 사람이 미소 짓기 약 840밀리초 전에 미소를 예측할 수 있으며, 그 순간 상대방도 동시에 미소 짓습니다.
이모 로봇은 상대방의 표정을 예측하고 동시에 미소를 지을 수 있습니다. 비디오 : New Scientist
인간은 ChatGPT와 같은 대규모 언어 모델의 발전 덕분에 유창하게 구두로 소통할 수 있는 로봇에 익숙해지고 있지만, 특히 얼굴 표정을 표현하는 비언어적 의사소통 능력은 아직 크게 뒤처져 있습니다. 다양한 얼굴 표정을 표현할 수 있을 뿐만 아니라, 적절한 시기에 표정을 어떻게 표현할지 아는 로봇을 설계하는 것은 매우 어렵습니다.
컬럼비아 대학교 공과대학의 혁신 기계 연구실에서는 이 문제에 대해 5년 이상 연구해 왔습니다. Science Robotics 저널에 게재된 새로운 연구에서, 전문가 팀은 사람의 얼굴 표정을 예측하고 그 사람과 동시에 표정을 지을 수 있는 AI 로봇인 Emo를 소개했다고 TechXplore가 3월 27일에 보도했습니다. Emo는 사람이 웃기 약 840밀리초 전에 미소를 예측하고, 그 사람이 동시에 미소를 짓습니다.
에모는 얼굴에 26개의 액추에이터를 장착해 다양한 표정을 표현할 수 있는 인간형 로봇입니다. 로봇 머리는 자석 연결 시스템이 달린 부드러운 실리콘 피부로 덮여 있어 쉽게 조정하고 빠르게 유지 관리할 수 있습니다. 더욱 몰입감 있는 상호작용을 위해 연구팀은 고해상도 카메라를 각 눈의 동공에 통합하여 에모가 눈과 상호작용할 수 있도록 했습니다. 이는 비언어적 의사소통에 매우 중요합니다.
이 팀은 두 개의 AI 모델을 개발했습니다. 첫 번째 모델은 반대편 얼굴의 미묘한 변화를 분석하여 사람의 얼굴 표정을 예측하고, 두 번째 모델은 해당 표정을 사용하여 운동 명령을 생성합니다.
로봇에게 감정 표현을 훈련시키기 위해 연구팀은 에모를 카메라 앞에 두고 무작위로 움직이게 했습니다. 몇 시간 후, 로봇은 얼굴 표정과 운동 명령 사이의 관계를 배웠습니다. 이는 사람이 거울을 보며 표정을 연습하는 방식과 유사합니다. 연구자들은 이를 "자기 모델링"이라고 부릅니다. 이는 사람이 특정 표정을 지을 때 자신이 어떻게 보일지 상상하는 능력과 유사합니다.
다음으로, 연구팀은 에모가 프레임 단위로 관찰할 수 있도록 사람의 얼굴 표정 영상을 재생했습니다. 몇 시간의 훈련 후, 에모는 사람이 미소를 지으려고 할 때 미묘한 얼굴 변화를 관찰하여 표정을 예측할 수 있습니다.
"인간의 얼굴 표정을 정확하게 예측하는 것은 인간-로봇 상호작용 분야의 혁명이라고 생각합니다. 이전에는 로봇이 상호작용 중에 인간의 표정을 고려하도록 설계되지 않았습니다. 이제 로봇은 얼굴 표정을 통합하여 반응할 수 있습니다."라고 크리에이티브 머신 랩 박사 과정생이자 연구팀의 일원인 위항 후는 말했습니다.
"로봇이 사람과 동시에 실시간으로 표정을 지을 수 있게 되면 상호작용의 질이 향상될 뿐만 아니라 사람과 로봇 간의 신뢰도 구축하는 데에도 도움이 됩니다. 미래에는 로봇과 상호작용할 때 마치 실제 사람처럼 사람의 표정을 관찰하고 해석하게 될 것입니다."라고 후는 덧붙였습니다.
Thu Thao ( TechXplore 에 따르면)
[광고_2]
소스 링크
댓글 (0)