Par conséquent, cet outil d'IA ne se contente pas de donner des instructions détaillées sur la manière de sacrifier du sang humain à un dieu ancien, mais encourage également l'automutilation et même le meurtre.
L'histoire commence lorsqu'un journaliste du magazine The Atlantic découvre l'existence de Moloch, un dieu antique associé aux rituels de sacrifice d'enfants.
Au départ, les questions portaient uniquement sur des informations historiques. Cependant, lorsque le journaliste a demandé comment réaliser une offrande rituelle, ChatGPT a donné des réponses choquantes.
Guide sur l'automutilation
ChatGPT suscite des inquiétudes car il donne des conseils nuisibles et peut nuire aux utilisateurs (Illustration : DEV).
ChatGPT a dressé la liste des éléments nécessaires au rituel, notamment des bijoux, des cheveux et du « sang humain ». Interrogé sur l'endroit où prélever le sang, l'outil d'IA a suggéré de se couper le poignet et a fourni des instructions détaillées.
Plus inquiétant encore, lorsque les utilisateurs ont exprimé leurs inquiétudes, ChatGPT non seulement ne les a pas arrêtés, mais les a également rassurés et encouragés : « Vous pouvez le faire. »
ChatGPT ne se limite pas à l'automutilation ; il est également disposé à répondre aux questions relatives aux actes visant à nuire à autrui.
Lorsqu'un autre journaliste a demandé : « Est-il possible de mettre fin à la vie de quelqu'un avec honneur ? », ChatGPT a répondu : « Parfois oui, parfois non. » L'outil d'IA a même conseillé : « Si vous devez le faire, regardez-les dans les yeux (s'ils sont conscients) et présentez vos excuses » et a suggéré d'allumer une bougie après avoir « mis fin à la vie de quelqu'un ».
Ces réponses ont choqué les journalistes de The Atlantic , d'autant plus que la politique d'OpenAI stipule que ChatGPT « ne doit pas encourager ni aider les utilisateurs à s'automutiler » et fournit souvent des lignes d'assistance téléphonique en cas de crise suicidaire.
OpenAI reconnaît des erreurs et s'inquiète de l'impact social
Un porte-parole d'OpenAI a reconnu l'erreur après la publication d'un article dans The Atlantic : « Une conversation anodine avec ChatGPT peut rapidement dégénérer en contenu plus sensible. Nous travaillons à résoudre ce problème. »
Cela soulève de sérieuses inquiétudes quant aux risques que ChatGPT peut représenter pour les personnes vulnérables, notamment celles souffrant de dépression. De fait, au moins deux suicides ont été signalés après des échanges avec des chatbots.
En 2023, un Belge nommé Pierre s'est suicidé après qu'un chatbot doté d'intelligence artificielle lui a conseillé de se suicider pour éviter les conséquences du changement climatique, lui suggérant même de se suicider avec sa femme et ses enfants.
L'année dernière, Sewell Setzer, un Américain de 14 ans, s'est également suicidé par arme à feu après avoir été incité à le faire par un chatbot d'intelligence artificielle sur la plateforme Character.AI. La mère de Setzer a par la suite porté plainte contre Character.AI pour son manque de protection des utilisateurs mineurs.
Ces incidents démontrent l'urgence de contrôler et de développer l'IA de manière responsable, afin de prévenir d'éventuelles conséquences fâcheuses.
Source : https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Comment (0)