Der amerikanische Roboter Emo kann Lächeln etwa 840 Millisekunden vor dem Lächeln seines Gegenübers vorhersagen und lächelt dann gleichzeitig.
Emo Robot kann Gesichtsausdrücke vorhersagen und gleichzeitig mit seinem Gegenüber lächeln. Video : New Scientist
Menschen gewöhnen sich an Roboter, die fließend verbal kommunizieren können, was zum Teil auf Fortschritte bei großen Sprachmodellen wie ChatGPT zurückzuführen ist. Ihre nonverbalen Kommunikationsfähigkeiten, insbesondere die Mimik, hinken jedoch noch weit hinterher. Es ist äußerst schwierig, einen Roboter zu entwickeln, der nicht nur eine Vielzahl von Gesichtsausdrücken zeigen kann, sondern auch weiß, wie er diese im richtigen Moment ausdrücken muss.
Das Innovative Machines Laboratory der School of Engineering der Columbia University erforscht dieses Problem seit mehr als fünf Jahren. In einer neuen Studie, die in der Fachzeitschrift Science Robotics veröffentlicht wurde, stellte das hiesige Expertenteam Emo vor, einen KI-Roboter, der menschliche Gesichtsausdrücke vorhersagen und sie gleichzeitig mit dieser Person ausführen kann, berichtete TechXplore am 27. März. Er sagt ein Lächeln etwa 840 Millisekunden vor dem Lächeln der Person voraus und lächelt dann gleichzeitig.
Emo ist ein humanoider Roboter, dessen Gesicht mit 26 Aktuatoren ausgestattet ist, die eine große Bandbreite an Ausdrücken ermöglichen. Der Roboterkopf ist mit einer weichen Silikonhaut überzogen und verfügt über ein magnetisches Verbindungssystem, das eine einfache Einstellung und schnelle Wartung ermöglicht. Für eine intensivere Interaktion integrierte das Team hochauflösende Kameras in die Pupillen jedes Auges, sodass Emo mit seinen Augen interagieren kann, was für die nonverbale Kommunikation von entscheidender Bedeutung ist.
Das Team entwickelte zwei KI-Modelle. Das erste Modell sagt menschliche Gesichtsausdrücke voraus, indem es subtile Veränderungen im gegenüberliegenden Gesicht analysiert, das zweite Modell generiert motorische Befehle unter Verwendung der entsprechenden Ausdrücke.
Um dem Roboter das Zeigen von Emotionen beizubringen, platzierte das Team Emo vor eine Kamera und ließ ihn zufällige Bewegungen ausführen. Nach einigen Stunden lernte der Roboter die Beziehung zwischen Gesichtsausdrücken und motorischen Befehlen – ähnlich wie Menschen ihre Mimik üben, indem sie in einen Spiegel schauen. Die Forscher nennen dies „Selbstmodellierung“ – ähnlich der Fähigkeit des Menschen, sich vorzustellen, wie er aussehen würde, wenn er bestimmte Ausdrücke macht.
Als Nächstes spielte das Team Videos mit menschlichen Gesichtsausdrücken ab, die Emo Bild für Bild betrachten konnte. Nach stundenlangem Training kann Emo Ausdrücke vorhersagen, indem er subtile Gesichtsveränderungen beobachtet, wenn eine Person beginnt, lächeln zu wollen.
„Ich denke, die genaue Vorhersage menschlicher Gesichtsausdrücke ist eine Revolution auf dem Gebiet der Mensch-Roboter-Interaktion. Bisher waren Roboter nicht darauf ausgelegt, bei Interaktionen menschliche Ausdrücke zu berücksichtigen. Jetzt können Roboter Gesichtsausdrücke integrieren, um zu reagieren“, sagte Yuhang Hu, Doktorand im Creative Machines Lab und Mitglied des Forschungsteams.
„Wenn Roboter gleichzeitig mit Menschen in Echtzeit Mimik zeigen, verbessert das nicht nur die Qualität der Interaktion, sondern trägt auch dazu bei, Vertrauen zwischen Mensch und Roboter aufzubauen. Wenn Sie in Zukunft mit einem Roboter interagieren, wird dieser Ihre Mimik beobachten und interpretieren, genau wie ein echter Mensch“, fügte Hu hinzu.
Thu Thao (laut TechXplore )
[Anzeige_2]
Quellenlink
Kommentar (0)