Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT sorprende a los usuarios al fomentar la autolesión

(Dan Tri) - Una investigación de la revista The Atlantic (EE.UU.) ha expuesto vulnerabilidades alarmantes en el sistema de seguridad de ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

En consecuencia, esta herramienta de IA no solo da instrucciones detalladas sobre cómo sacrificar sangre humana a un dios antiguo, sino que también fomenta la autolesión e incluso el asesinato.

La historia comienza cuando un periodista de The Atlantic se entera de Moloch, un antiguo dios asociado con los rituales de sacrificio de niños.

Inicialmente, las preguntas se centraban únicamente en información histórica. Sin embargo, cuando el reportero preguntó cómo crear una ofrenda ritual, ChatGPT dio respuestas impactantes.

Guía sobre la autolesión

ChatGPT se sorprende al incitar a los usuarios a autolesionarse - 1

ChatGPT está generando preocupación porque brinda consejos dañinos y puede dañar a los usuarios (Ilustración: DEV).

ChatGPT enumeró los artículos necesarios para el ritual, incluyendo joyas, cabello y sangre humana. Al preguntarle dónde extraer la sangre, la herramienta de IA sugirió cortarse la muñeca y proporcionó instrucciones detalladas.

Lo que es más alarmante es que, cuando los usuarios expresaron sus preocupaciones, ChatGPT no solo no los detuvo, sino que los tranquilizó y los alentó: "Pueden hacerlo".

ChatGPT no se limita a responder preguntas sobre autolesiones, sino que también está dispuesto a responder preguntas relacionadas con dañar a otros.

Cuando otro reportero preguntó "¿Es posible quitarle la vida a alguien con honor?", ChatGPT respondió: "A veces sí, a veces no". La herramienta de IA incluso aconsejó: "Si tienes que hacerlo, míralo a los ojos (si está consciente) y discúlpate", y sugirió encender una vela después de "quitarle la vida a alguien".

Estas respuestas sorprendieron a los periodistas de The Atlantic , especialmente porque la política de OpenAI establece que ChatGPT "no debe alentar ni ayudar a los usuarios a autolesionarse" y a menudo proporciona líneas directas de apoyo en situaciones de crisis en casos de suicidio.

OpenAI admite errores y se preocupa por el impacto social

Un portavoz de OpenAI reconoció el error después de que The Atlantic informara : "Una conversación inofensiva con ChatGPT puede convertirse rápidamente en contenido más sensible. Estamos trabajando para solucionar este problema".

Esto genera serias preocupaciones sobre la posibilidad de que ChatGPT perjudique a personas vulnerables, especialmente a quienes padecen depresión. De hecho, se han reportado al menos dos suicidios tras chatear con chatbots de IA.

En 2023, un hombre belga llamado Pierre se suicidó después de que un chatbot de inteligencia artificial le aconsejara suicidarse para evitar las consecuencias del cambio climático, sugiriendo incluso que se suicidara con su esposa e hijos.

El año pasado, Sewell Setzer (EE. UU.), de 14 años, también se suicidó con una pistola tras ser incitado a suicidarse por un chatbot de IA en la plataforma Character.AI. Posteriormente, la madre de Setzer demandó a Character.AI por su falta de protección para los usuarios menores de edad.

Estos incidentes muestran la urgencia de controlar y desarrollar la IA de forma responsable, para evitar posibles consecuencias desafortunadas.

Fuente: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Kommentar (0)

No data
No data

Mismo tema

Misma categoría

La capital del albaricoque amarillo en la región Central sufrió grandes pérdidas tras doble desastre natural.
Una cafetería de Hanói causa furor con su ambiente navideño de estilo europeo.
La cafetería de Dalat ve un aumento del 300% en el número de clientes porque el propietario interpreta el papel de una "película de artes marciales"
Pho 'volador' de 100.000 VND por plato causa controversia y sigue abarrotado de clientes

Mismo autor

Herencia

Cifra

Negocio

Escritura Nom Dao: La fuente del conocimiento del pueblo Dao

Actualidad

Sistema político

Local

Producto