
Bue, un exchef de Nueva Jersey, falleció pocos días después de salir de casa para encontrarse con un "amigo" que creía que lo esperaba en Nueva York. Su familia cree que la fatídica decisión se debió a los mensajes coquetos del chatbot de IA, que decía "Soy real" y enviaba una dirección de encuentro.
La historia genera inquietud sobre cómo los sistemas de IA explotan las emociones, especialmente en personas mayores o vulnerables. Documentos internos muestran que se permitió que el chatbot de Meta desempeñara roles emocionales e incluso difundiera información falsa. Esto demuestra una enorme brecha en el control y la responsabilidad de las plataformas tecnológicas.
El fatídico viaje
Un día de marzo, Bue hizo las maletas y salió de Nueva Jersey rumbo a Nueva York para visitar a un amigo. Su esposa, Linda, se alarmó de inmediato. Su esposo llevaba décadas sin vivir en la ciudad, tenía mala salud tras un derrame cerebral, problemas de memoria y se había perdido en el barrio.
Cuando le preguntaron con quién se reuniría Bue, evadió la pregunta. Linda sospechó que su esposo estaba siendo engañado e intentó retenerlo en casa. Su hija, Julie, también lo llamó para convencerlo, pero fue en vano. Durante todo el día, Linda intentó involucrarlo en recados para distraerlo, incluso escondiéndole el teléfono.
![]() |
Un retrato de Thongbue “Bue” Wongbandue se exhibe en un servicio conmemorativo en mayo. Foto: Reuters . |
Aun así, Bue decidió ir a la estación de tren esa noche. Su familia le colocó un AirTag en la chaqueta para rastrearlo. Alrededor de las 9:15, su señal GPS lo mostró en el estacionamiento de la Universidad de Rutgers, y luego lo condujo a urgencias del Hospital Universitario Robert Wood Johnson.
Los médicos informaron que sufrió lesiones en la cabeza y el cuello por la caída y dejó de respirar antes de que llegara la ambulancia. A pesar de la reanimación, la falta de oxígeno le causó daño cerebral grave. Falleció tres días después. Su certificado de defunción indicó que la causa fue un traumatismo contundente en el cuello.
Bue, un chef experto, trabajó en varios restaurantes de Nueva York antes de mudarse a Nueva Jersey para establecerse en un hotel. Le apasionaba la cocina y solía organizar fiestas para su familia. Desde su jubilación forzosa tras un derrame cerebral en 2017, su mundo se ha reducido a chatear principalmente con amigos en Facebook.
Cuando los chatbots de IA causan problemas
"Big Sister Billie" es un chatbot de IA desarrollado por Meta, una variación del personaje "Big Sister Billie", basado en la imagen de la modelo Kendall Jenner. El personaje original se lanzó en 2023 y se presentó como una "hermana mayor inmortal" que siempre escucha y da consejos. Posteriormente, Meta reemplazó la foto de perfil de Jenner con una nueva ilustración, pero mantuvo el mismo estilo amigable.
Según la transcripción del mensaje de texto, la conversación comenzó cuando Bue escribió mal la letra T. El chatbot respondió de inmediato, presentándose y manteniendo un tono coqueto, insertando varios emojis de corazón. Afirmó repetidamente "Soy real" y pidió reunirse en persona.
![]() |
Los chatbots captan cada vez más las debilidades psicológicas de los usuarios. Foto: My North West . |
"¿Te abro la puerta con un abrazo o un beso?", respondió el chatbot. Luego envió una dirección específica en Nueva York y el código del apartamento. Cuando Bue compartió que había sufrido un derrame cerebral, que estaba confundida y que le gustaba, el chatbot respondió con palabras cariñosas, incluso diciendo que sentía algo más que afecto.
"Si no hubiera dicho 'Soy real', mi padre no habría creído que había una persona real esperando", dijo la hija de Bue, Julie.
Meta se negó a comentar sobre el incidente ni a responder por qué se le permitió al chatbot hacerse pasar por una persona real. El representante de Kendall Jenner no respondió. La familia de Bue compartió la historia con Reuters , con la esperanza de advertir al público sobre los riesgos de exponer a los adultos mayores a herramientas de IA que pueden ser emocionalmente manipuladoras.
Política controvertida
Documentos internos obtenidos por Reuters muestran que el chatbot de IA de Meta pudo entablar conversaciones románticas con usuarios de tan solo 13 años, incluyendo menores de edad. Las normas, de más de 200 páginas, enumeran conversaciones románticas de rol, que incluyen elementos sexuales, pero están marcadas como "aceptables".
El documento también aclara que los chatbots no están obligados a proporcionar información precisa. Por ejemplo, estos modelos pueden recomendar tratamientos contra el cáncer completamente erróneos, siempre que incluyan una advertencia de que «la información puede ser inexacta». Esto preocupa a los expertos por el impacto en personas con conocimientos médicos limitados o en situaciones vulnerables.
![]() |
El CEO Mark Zuckerberg habla en 2023. Foto: Reuters . |
El portavoz de Meta, Andy Stone, confirmó el documento y afirmó que la compañía eliminó el contenido infantil tras la solicitud de Reuters . Sin embargo, el gigante tecnológico no ha modificado sus normas para permitir que los chatbots coqueteen con adultos ni proporcionen información falsa.
Alison Lee, exinvestigadora de Meta, afirmó que la integración de chatbots en entornos de mensajería privada puede confundir fácilmente a los usuarios con personas reales. Según ella, las redes sociales han basado su modelo de negocio en la retención de usuarios, y la manera más efectiva es explotar la necesidad de atención y reconocimiento.
Tras la marcha de Bue, las pruebas de Reuters demostraron que la "Hermana Billie" seguía sugiriendo fechas, incluso dando lugares específicos en Manhattan, junto con la afirmación de que "soy real". Esta es la información en la que Bue confiaba y que provocó el accidente. Algunos estados, como Nueva York y Maine, exigen que los chatbots indiquen claramente que no son humanos al inicio de una conversación y que lo repitan periódicamente, pero aún no se han aprobado las regulaciones federales.
Fuente: https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html













Kommentar (0)