El robot estadounidense Emo puede predecir sonrisas unos 840 milisegundos antes de que la persona de enfrente sonría, y luego sonríe al mismo tiempo.
Emo Robot puede predecir expresiones y sonreír al mismo tiempo que la persona opuesta. Vídeo : New Scientist
Los humanos se están acostumbrando a los robots que pueden comunicarse verbalmente con fluidez, en parte gracias a los avances en grandes modelos de lenguaje como ChatGPT, pero sus habilidades de comunicación no verbal, especialmente las expresiones faciales, aún están muy por detrás. Diseñar un robot que no sólo pueda expresar una variedad de expresiones faciales sino que también sepa cómo expresarlas en el momento adecuado es extremadamente difícil.
El Laboratorio de Máquinas Innovadoras de la Escuela de Ingeniería de la Universidad de Columbia ha estado investigando este problema durante más de cinco años. En un nuevo estudio publicado en la revista Science Robotics , el equipo de expertos presentó a Emo, un robot de IA que puede predecir expresiones faciales humanas y realizarlas simultáneamente con esa persona, informó TechXplore el 27 de marzo. Predice sonrisas unos 840 milisegundos antes de que la persona sonría, luego sonríe al mismo tiempo.
Emo es un robot humanoide con un rostro equipado con 26 actuadores que permiten una amplia gama de expresiones. La cabeza del robot está cubierta con una suave piel de silicona con un sistema de conexión magnética, lo que permite un fácil ajuste y un mantenimiento rápido. Para interacciones más inmersivas, el equipo integró cámaras de alta resolución en las pupilas de cada ojo, lo que permitió a Emo interactuar con sus ojos, lo cual es crucial en la comunicación no verbal.
El equipo desarrolló dos modelos de IA. El primer modelo predice las expresiones faciales humanas analizando cambios sutiles en la cara opuesta, el segundo modelo genera comandos motores utilizando las expresiones correspondientes.
Para entrenar al robot para que expresara emociones, el equipo colocó a Emo frente a una cámara y le permitió realizar movimientos aleatorios. Después de unas horas, el robot aprendió la relación entre las expresiones faciales y los comandos motores, de forma similar a la forma en que los humanos practican expresiones mirándose en un espejo. Los investigadores lo llaman “automodelado”, algo similar a la capacidad que tienen los humanos de imaginar cómo se verían al hacer ciertas expresiones.
A continuación, el equipo reprodujo vídeos de expresiones faciales humanas para que Emo las observara cuadro por cuadro. Después de horas de entrenamiento, Emo puede predecir expresiones al observar cambios faciales sutiles cuando una persona comienza a intentar sonreír.
"Creo que predecir con precisión las expresiones faciales humanas es una revolución en el campo de la interacción entre humanos y robots. Anteriormente, los robots no estaban diseñados para considerar las expresiones humanas durante las interacciones. Ahora, los robots pueden integrar las expresiones faciales para responder", afirmó Yuhang Hu, estudiante de doctorado en el Laboratorio de Máquinas Creativas y miembro del equipo de investigación.
"Que los robots expresen sus expresiones al mismo tiempo que los humanos en tiempo real no solo mejora la calidad de la interacción, sino que también contribuye a generar confianza entre ambos. En el futuro, al interactuar con un robot, este observará e interpretará sus expresiones faciales, como si fuera un humano real", añadió Hu.
Thu Thao (según TechXplore )
[anuncio_2]
Enlace de origen
Kommentar (0)