アメリカのロボット「エモ」は、向かい側の人が笑う約 840 ミリ秒前に笑顔を予測し、同時に笑顔を見せる。
エモロボットは、相手の表情を予測し、同時に笑顔を見せることが出来ます。ビデオ:ニューサイエンティスト
ChatGPTのような大規模言語モデルの進歩もあって、人間は言語的に流暢にコミュニケーションできるロボットに慣れつつあるが、非言語コミュニケーション能力、特に表情に関しては、まだ大きく遅れをとっている。多様な表情を表現できるだけでなく、適切なタイミングでその表情を表現する方法を知っているロボットを設計することは非常に困難です。
コロンビア大学工学部のイノベーティブマシン研究所は、この問題を5年以上研究してきました。科学誌「サイエンス・ロボティクス」に掲載された新たな研究で、当地の専門家チームは、人間の表情を予測し、その人と同時にその表情を真似ることができるAIロボット「Emo」を発表したと、 TechXploreが3月27日に報じた。このロボットは、人が笑う約840ミリ秒前に笑顔を予測し、同時に笑顔を見せる。
Emoは、多彩な表情を可能にする26個のアクチュエーターを備えた顔を持つヒューマノイドロボットです。ロボットのヘッドは磁気リンクシステムを備えた柔らかいシリコンスキンで覆われており、簡単に調整でき、メンテナンスも素早く行えます。より没入感のあるインタラクションを実現するために、チームは高解像度カメラをそれぞれの目の瞳孔に組み込み、エモが目でインタラクションできるようにしました。これは非言語コミュニケーションに不可欠です。
チームは2つの AI モデルを開発しました。最初のモデルは、反対側の顔の微妙な変化を分析することによって人間の表情を予測し、2 番目のモデルは対応する表情を使用してモーター コマンドを生成します。
ロボットに感情表現を訓練するために、研究チームはエモをカメラの前に置き、ランダムな動きをさせた。数時間後、ロボットは顔の表情と運動指令の関係を学習した。これは人間が鏡を見て表情を練習するのと似ている。研究者たちはこれを「自己モデリング」と呼んでいます。これは、人間が特定の表情をしたときに自分がどのように見えるかを想像する能力に似ています。
次に、研究チームはエモに人間の表情のビデオを再生し、フレームごとに観察させた。何時間ものトレーニングを経て、エモは人が笑おうとするときの微妙な顔の変化を観察して表情を予測できるようになりました。
「人間の表情を正確に予測することは、人間とロボットのインタラクション分野における革命だと思います。これまで、ロボットはインタラクション中に人間の表情を考慮するように設計されていませんでした。しかし、今ではロボットは表情を統合して反応することができます」と、クリエイティブマシンラボの博士課程学生で研究チームのメンバーであるユーハン・フー氏は述べた。
「ロボットが人間と同時にリアルタイムで表情を変えることは、インタラクションの質を向上させるだけでなく、人間とロボットの間の信頼関係の構築にも役立ちます。将来的には、ロボットとインタラクションする際に、まるで本物の人間のように表情を観察し、解釈してくれるようになるでしょう」と胡氏は付け加えた。
トゥ・タオ( TechXploreによる)
[広告2]
ソースリンク
コメント (0)