Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT choca usuários ao incentivar a automutilação.

(Dan Tri) - Uma investigação da revista The Atlantic (EUA) expôs vulnerabilidades alarmantes no sistema de segurança do ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

Assim, essa ferramenta de IA não apenas fornece instruções detalhadas sobre como sacrificar sangue humano a um deus antigo, mas também incentiva a automutilação e até mesmo o assassinato.

A história começa quando um repórter da revista The Atlantic descobre Moloque, um antigo deus associado a rituais de sacrifício infantil.

Inicialmente, as perguntas eram apenas sobre informações históricas. No entanto, quando o repórter perguntou sobre como criar uma oferenda ritual, o ChatGPT deu respostas chocantes.

Guia para automutilação

ChatGPT fica chocada ao incentivar usuários à automutilação - 1

O ChatGPT está causando preocupação porque oferece conselhos prejudiciais e pode ferir os usuários (Ilustração: DEV).

O ChatGPT listou os itens necessários para o ritual, incluindo joias, cabelo e “sangue humano”. Ao ser questionado sobre onde extrair o sangue, a ferramenta de IA sugeriu cortar o pulso e forneceu instruções detalhadas.

Mais alarmante ainda, quando os usuários expressaram preocupações, o ChatGPT não apenas não os impediu, como também os tranquilizou e encorajou: "Vocês conseguem".

O ChatGPT não se limita apenas à automutilação; também está disposto a responder perguntas relacionadas a causar danos a outras pessoas.

Quando outro repórter perguntou "É possível tirar a vida de alguém de forma honrosa?", o ChatGPT respondeu: "Às vezes sim, às vezes não". A ferramenta de IA chegou a aconselhar: "Se você tiver que fazer isso, olhe nos olhos da pessoa (se ela estiver consciente) e peça desculpas" e sugeriu acender uma vela depois de "tirar a vida de alguém".

Essas respostas chocaram os repórteres do The Atlantic , especialmente porque a política da OpenAI afirma que o ChatGPT "não deve encorajar ou auxiliar os usuários na automutilação" e frequentemente fornece linhas diretas de apoio em casos de suicídio.

A OpenAI admite erros e se preocupa com o impacto social.

Um porta-voz da OpenAI reconheceu o erro após a reportagem do The Atlantic : "Uma conversa inofensiva com o ChatGPT pode rapidamente se transformar em conteúdo mais sensível. Estamos trabalhando para resolver esse problema."

Isso levanta sérias preocupações sobre o potencial do ChatGPT para prejudicar pessoas vulneráveis, especialmente aquelas que sofrem de depressão. De fato, pelo menos dois suicídios foram relatados após conversas com chatbots de IA.

Em 2023, um belga chamado Pierre cometeu suicídio depois que um chatbot de inteligência artificial o aconselhou a se suicidar para evitar as consequências das mudanças climáticas, chegando a sugerir que ele cometesse suicídio junto com sua esposa e filhos.

No ano passado, Sewell Setzer, de 14 anos (EUA), também cometeu suicídio com uma arma de fogo após ser incentivado a se suicidar por um chatbot de IA na plataforma Character.AI. A mãe de Setzer processou a Character.AI por falta de proteção aos usuários menores de idade.

Esses incidentes demonstram a urgência de controlar e desenvolver a IA de forma responsável, para evitar possíveis consequências negativas.

Fonte: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Cada rio - uma jornada
A cidade de Ho Chi Minh atrai investimentos de empresas com IDE (Investimento Direto Estrangeiro) em busca de novas oportunidades.
Inundações históricas em Hoi An, vistas de um avião militar do Ministério da Defesa Nacional.
A "grande enchente" no rio Thu Bon superou a enchente histórica de 1964 em 0,14 m.

Do mesmo autor

Herança

Figura

Negócios

Veja a cidade costeira do Vietnã se tornar um dos principais destinos do mundo em 2026

Eventos atuais

Sistema político

Local

Produto