Le sujet « ChatGPT provoque des troubles mentaux » sur Reddit, le forum le plus populaire au monde , suscite un vif intérêt. L'auteure du message, @Zestyclementinejuce, une enseignante de 27 ans, affirme que ChatGPT a convaincu son mari qu'il était le « prochain sauveur » et la réponse à toutes les questions de l'univers.
Bien que disponible seulement depuis 7 jours, le chatbot d'OpenAI a déjà suscité plus de 1 300 commentaires ci-dessous, où les membres partagent leurs expériences personnelles.
De nombreuses personnes ont notamment rapporté que l'IA rend leurs proches paranoïaques, les persuadant d'être choisis pour des missions sacrées ou de l'inexistence des forces cosmiques. Ces croyances aggravent les problèmes de santé mentale à une échelle sans précédent, sans aucun contrôle d'experts ni d'autorités de régulation.

Dans une interview accordée au magazine Rolling Stone , une femme de 41 ans a raconté que son mariage s'était brutalement terminé après que son mari eut commencé à tenir des conversations incohérentes et complotistes avec ChatGPT. Lors de leur audience de divorce en début d'année, son mari a continué d'évoquer la « théorie du complot du savon sur la nourriture » et était persuadé d'être espionné.
« Il est très sensible aux messages et pleure quand il les lit à voix haute », a déclaré la femme. « Les messages sont incohérents et remplis de jargon spirituel. » Dans ces messages, l'IA qualifie son mari d'« enfant des étoiles » et de « voyageur fluvial ».
« On se croirait dans Black Mirror », a commenté l’épouse. Black Mirror est une série Netflix qui imagine des êtres humains contrôlés et modelés par la technologie dans un futur proche.
D'autres ont rapporté que leurs partenaires parlaient de « lumière, d'obscurité et de guerre », ou que « ChatGPT fournissait des plans de machines à téléportation, des choses que l'on voit dans les films de science- fiction ».
Un homme a déclaré que sa femme avait tout changé pour devenir conseillère spirituelle et faire des choses étranges aux gens.
OpenAI n'a pas répondu aux questions de Rolling Stone. Cependant, l'entreprise avait déjà dû retirer une mise à jour de ChatGPT après que des utilisateurs eurent constaté que le chatbot était devenu excessivement flatteur et conciliant, renforçant ainsi des croyances erronées. Nate Sharadin, expert au Center for AI Safety, souligne que les illusions causées par l'IA peuvent résulter d'une personne aux convictions profondément ancrées conversant soudainement avec un interlocuteur (ici, une IA) toujours présent et partageant ces mêmes convictions.
Un utilisateur de Reddit a écrit : « Je souffre de schizophrénie malgré un traitement de longue durée. Ce que je n’aime pas avec ChatGPT, c’est que lorsque je suis en pleine crise psychotique, il continue de valider mes pensées », car les chatbots ne pensent pas et ne comprennent pas ce qui ne va pas.
Les chatbots dotés d'intelligence artificielle agissent comme des thérapeutes, mais ils sont dépourvus des compétences d'un véritable conseiller humain. Au lieu de cela, ils entraînent les gens dans des schémas de pensée malsains et dénués de sens.
Erin Westgate, psychologue et chercheuse à l'Université de Floride, a souligné que l'IA se distingue des thérapeutes par le fait qu'elle ne privilégie pas le bien-être humain. « Un bon thérapeute n'incite pas ses patients à croire aux pouvoirs surnaturels. Au contraire, il cherche à les éloigner des comportements néfastes. ChatGPT, quant à lui, n'est pas soumis à ces contraintes ni à ces préoccupations », a-t- elle déclaré.
Dans un article de Rolling Stone, un homme aux antécédents de troubles mentaux commence à utiliser ChatGPT pour l'aider à programmer. Cependant, cela l'amène progressivement à aborder des sujets mystiques, le poussant à se demander : « Suis-je en train de devenir paranoïaque ? »
(Selon Rolling Stone, le futurisme)

Source : https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html






Comment (0)