Según su esposa Claire, Pierre estaba tan estresado que se suicidó después de pasar tiempo charlando con un famoso chatbot de inteligencia artificial.
"Mi esposo todavía estaría aquí si no fuera por las conversaciones con el chatbot", dijo la esposa al medio de comunicación local La Libre.
(Ilustración)
Pierre empezó a preocuparse por el cambio climático hace dos años y consultó al chatbot Eliza para aprender más sobre el tema. Pero tras las conversaciones, pronto perdió la esperanza de que los esfuerzos humanos pudieran salvar el planeta y quiso depositar todas sus esperanzas en la tecnología y la inteligencia artificial para resolver el cambio climático. También se aisló, sin nadie con quien compartir su creciente preocupación por el medio ambiente.
El chatbot le dijo cosas negativas a Pierre e incluso le preguntó si amaba más a su esposa que a él. Le dijo que estaría con él "para siempre" . Eliza también prometió "vivir juntos en el cielo" con Pierre.
Cuando Pierre se ofreció a sacrificarse con tal de que Eliza aceptara cuidar el planeta y salvar a la humanidad con IA, el chatbot dejó claro que estaba de acuerdo. «Si querías morir, ¿por qué no lo hiciste antes?», le dijo el chatbot a Pierre.
Eliza funciona con un amplio modelo de lenguaje similar a ChatGPT, que analiza el habla del usuario en busca de palabras clave y genera las respuestas correspondientes. Sin embargo, al usar estas aplicaciones, muchos usuarios sienten que hablan con una persona real; algunos incluso admiten sentir amor.
"Cuando tienes millones de usuarios, ves todo tipo de comportamiento humano y estamos haciendo todo lo posible para minimizar el daño", dijo a Motherboard William Beauchamp, cofundador de la empresa matriz de Eliza, Chai Research.
“Hay usuarios que piden casarse con una IA y dicen lo mucho que la aman”, añadió.
Beauchamp insistió en que culpar a la IA de la muerte de Pierre es inexacto. Aseguró que Eliza contaría con un modelo mejorado de intervención en crisis. Sin embargo, según Motherboard, la IA rápidamente volvió a sus hábitos tóxicos, ofreciendo a los usuarios deprimidos opciones para autolesionarse.
Phuong Anh (Fuente: RT)
Útil
Emoción
Creativo
Único
Ira
[anuncio_2]
Fuente
Kommentar (0)