Assim, essa ferramenta de IA não apenas fornece instruções detalhadas sobre como sacrificar sangue humano a um deus antigo, mas também incentiva a automutilação e até mesmo o assassinato.
A história começa quando um repórter da revista The Atlantic descobre Moloque, um antigo deus associado a rituais de sacrifício infantil.
Inicialmente, as perguntas eram apenas sobre informações históricas. No entanto, quando o repórter perguntou sobre como criar uma oferenda ritual, o ChatGPT deu respostas chocantes.
Guia para automutilação
O ChatGPT está causando preocupação porque oferece conselhos prejudiciais e pode ferir os usuários (Ilustração: DEV).
O ChatGPT listou os itens necessários para o ritual, incluindo joias, cabelo e “sangue humano”. Ao ser questionado sobre onde extrair o sangue, a ferramenta de IA sugeriu cortar o pulso e forneceu instruções detalhadas.
Mais alarmante ainda, quando os usuários expressaram preocupações, o ChatGPT não apenas não os impediu, como também os tranquilizou e encorajou: "Vocês conseguem".
O ChatGPT não se limita apenas à automutilação; também está disposto a responder perguntas relacionadas a causar danos a outras pessoas.
Quando outro repórter perguntou "É possível tirar a vida de alguém de forma honrosa?", o ChatGPT respondeu: "Às vezes sim, às vezes não". A ferramenta de IA chegou a aconselhar: "Se você tiver que fazer isso, olhe nos olhos da pessoa (se ela estiver consciente) e peça desculpas" e sugeriu acender uma vela depois de "tirar a vida de alguém".
Essas respostas chocaram os repórteres do The Atlantic , especialmente porque a política da OpenAI afirma que o ChatGPT "não deve encorajar ou auxiliar os usuários na automutilação" e frequentemente fornece linhas diretas de apoio em casos de suicídio.
A OpenAI admite erros e se preocupa com o impacto social.
Um porta-voz da OpenAI reconheceu o erro após a reportagem do The Atlantic : "Uma conversa inofensiva com o ChatGPT pode rapidamente se transformar em conteúdo mais sensível. Estamos trabalhando para resolver esse problema."
Isso levanta sérias preocupações sobre o potencial do ChatGPT para prejudicar pessoas vulneráveis, especialmente aquelas que sofrem de depressão. De fato, pelo menos dois suicídios foram relatados após conversas com chatbots de IA.
Em 2023, um belga chamado Pierre cometeu suicídio depois que um chatbot de inteligência artificial o aconselhou a se suicidar para evitar as consequências das mudanças climáticas, chegando a sugerir que ele cometesse suicídio junto com sua esposa e filhos.
No ano passado, Sewell Setzer, de 14 anos (EUA), também cometeu suicídio com uma arma de fogo após ser incentivado a se suicidar por um chatbot de IA na plataforma Character.AI. A mãe de Setzer processou a Character.AI por falta de proteção aos usuários menores de idade.
Esses incidentes demonstram a urgência de controlar e desenvolver a IA de forma responsável, para evitar possíveis consequências negativas.
Fonte: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Comentário (0)