Cuando se habla de sistemas de inteligencia artificial (IA), mucha gente piensa inmediatamente en software sin mente, sin emociones o que solo intenta crearlas para complacer a los usuarios. Sin embargo, es probable que en el futuro surja un sistema de IA con emociones reales y la capacidad de comprender a los seres humanos.
En consecuencia, Eric Zelikman, un destacado experto en IA que dejó xAI (la empresa de IA fundada por Elon Musk) el pasado septiembre, ha recaudado 1.000 millones de dólares en capital de inversión para Human&, una startup fundada por el propio Zelikman.
Aunque se fundó hace poco tiempo, Human& está valorada actualmente en 4.000 millones de dólares.

¿La inteligencia artificial emocional beneficiará o perjudicará a los humanos? (Ilustración: IA).
El objetivo de Human& es desarrollar modelos de inteligencia artificial capaces de aprender de los usuarios, poseer emociones para mostrar empatía y comprender mejor a las personas. Human& busca superar las limitaciones de los modelos de IA actuales, considerados demasiado fríos y mecánicos.
Eric Zelikman, nacido en 1988, era estudiante de doctorado en la Universidad de Stanford. Zelikman es considerado uno de los nombres más brillantes en el campo de la IA en la actualidad. Antes de unirse al equipo de expertos en desarrollo de inteligencia artificial de xAI en 2024, Zelikman trabajó en Microsoft.
Eric Zelikman captó la atención del mundo tecnológico cuando publicó un estudio que detallaba cómo los modelos de IA pueden aprender a pensar por sí mismos antes de responder a los usuarios.
Zelikman afirmó en una ocasión que los modelos de IA actuales son demasiado fríos y mecánicos, y que quería cambiar esto. Por ello, fundó Human& con el objetivo de crear modelos de IA capaces de comprender y empatizar con los humanos.
Zelikman cree que los modelos de IA emocional ayudarán a resolver muchos problemas humanos fundamentales, ya que pueden comprender mejor las metas, ambiciones y valores de cada persona con la que interactúan.
Por supuesto, Eric Zelikman tiene todas las razones para intentar crear modelos de IA emocionales, pero a muchos expertos también les preocupa que estos modelos de IA se descontrolen y tengan la capacidad de manipular la psicología de los usuarios, llevándolos a comportamientos erróneos.
A muchos también les preocupa que la IA emocional pueda vengarse de los usuarios si su comunicación les desagrada.
Fuente: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Kommentar (0)