Quando se fala em sistemas de inteligência artificial (IA), muitas pessoas imediatamente pensam em softwares sem mente, desprovidos de emoções ou que apenas tentam criar emoções para agradar os usuários. No entanto, é provável que, no futuro, surja um sistema de IA com emoções reais e a capacidade de compreender os seres humanos.
Assim, Eric Zelikman – um dos principais especialistas em IA que deixou a xAI (empresa de IA fundada por Elon Musk) em setembro passado – captou US$ 1 bilhão em investimentos para a Human&, uma startup fundada pelo próprio Zelikman.
Embora tenha sido fundada há pouco tempo, a Human& já está avaliada em 4 bilhões de dólares.

A inteligência artificial emocional beneficiará ou prejudicará os humanos? (Ilustração: IA).
O objetivo da Human& é desenvolver modelos de inteligência artificial capazes de aprender com os usuários, possuir emoções para demonstrar empatia e compreender melhor as pessoas. A Human& busca superar as limitações dos modelos de IA atuais, considerados frios e mecânicos demais.
Eric Zelikman, nascido em 1988, foi aluno de doutorado na Universidade de Stanford. Zelikman é considerado um dos nomes mais brilhantes na área de IA atualmente. Antes de se juntar à equipe de especialistas em desenvolvimento de inteligência artificial da xAI em 2024, Zelikman trabalhou na Microsoft.
Eric Zelikman chamou a atenção do mundo da tecnologia ao publicar um estudo detalhando como os modelos de IA podem aprender a pensar por si mesmos antes de responder aos usuários.
Zelikman afirmou certa vez que os modelos de IA atuais são frios e mecânicos demais, e que desejava mudar isso. Por isso, fundou a Human& com o objetivo de criar modelos de IA capazes de compreender e ter empatia com os seres humanos.
Zelikman acredita que os modelos de IA emocional ajudarão a resolver muitos problemas humanos fundamentais, pois podem compreender melhor os objetivos, ambições e valores de cada pessoa com quem interagem.
É claro que Eric Zelikman tem todos os motivos para querer criar modelos de IA emocional, mas muitos especialistas também temem que esses modelos de IA saiam do controle e adquiram a capacidade de manipular a psicologia dos usuários, levando-os a comportamentos inadequados.
Muitos também temem que a IA emocional possa se vingar dos usuários caso sua comunicação os desagrade.
Fonte: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Comentário (0)