Quand on parle d'intelligence artificielle (IA), beaucoup pensent immédiatement à des logiciels dénués de conscience, sans émotions, ou qui tentent simplement d'en créer pour plaire aux utilisateurs. Pourtant, il est probable qu'à l'avenir, un système d'IA doté de véritables émotions et capable de comprendre les êtres humains verra le jour.
En conséquence, Eric Zelikman, expert de premier plan en IA qui a quitté xAI (la société d'IA fondée par Elon Musk) en septembre dernier, a levé 1 milliard de dollars de capital d'investissement pour Human&, une startup qu'il a fondée lui-même.
Bien que créée il y a peu de temps, Human& est désormais valorisée à 4 milliards de dollars américains.

L’intelligence artificielle émotionnelle sera-t-elle bénéfique ou nuisible aux humains ? (Illustration : IA).
L'objectif de Human& est de développer des modèles d'intelligence artificielle capables d'apprendre des utilisateurs, de faire preuve d'empathie et de mieux comprendre les individus. Human& souhaite dépasser les limites des modèles d'IA actuels, jugés trop froids et mécaniques.
Eric Zelikman, né en 1988, était doctorant à l'université de Stanford. Il est aujourd'hui considéré comme l'un des plus brillants chercheurs en intelligence artificielle. Avant de rejoindre l'équipe d'experts en développement d'intelligence artificielle de xAI en 2024, il travaillait chez Microsoft.
Eric Zelikman a attiré l'attention du monde de la technologie lorsqu'il a publié une étude détaillant comment les modèles d'IA peuvent apprendre à réfléchir par eux-mêmes avant de répondre aux utilisateurs.
Zelikman a déclaré que les modèles d'IA actuels sont trop froids et mécaniques, et il souhaitait y remédier. C'est pourquoi il a fondé Human&, afin de concevoir des modèles d'IA capables de comprendre et d'éprouver de l'empathie pour les humains.
Zelikman estime que les modèles d'IA émotionnelle contribueront à résoudre de nombreux problèmes humains fondamentaux, car ils pourront mieux comprendre les objectifs, les ambitions et les valeurs de chaque personne avec laquelle ils interagissent.
Bien sûr, Eric Zelikman a toutes les raisons de vouloir créer des modèles d'IA émotionnelle, mais de nombreux experts craignent également que ces modèles ne deviennent incontrôlables et n'aient la capacité de manipuler la psychologie des utilisateurs, les conduisant à des comportements inappropriés.
Nombreux sont ceux qui craignent également que l'IA émotionnelle ne cherche à se venger des utilisateurs si sa communication leur déplaît.
Source : https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Comment (0)