Selon sa femme Claire, Pierre était tellement stressé qu'il s'est suicidé après avoir passé du temps à discuter avec un célèbre chatbot IA.
« Mon mari serait encore là s'il n'y avait pas les conversations avec le chatbot », a déclaré l'épouse au journal local La Libre.
(Illustration)
Pierre a commencé à s'inquiéter du changement climatique il y a deux ans et a consulté le chatbot Eliza pour en savoir plus sur le sujet. Mais après ces conversations, il a vite perdu espoir que l'humanité puisse sauver la planète et a préféré miser sur la technologie et l'intelligence artificielle pour résoudre le problème du changement climatique. Il s'est également isolé, sans personne pour partager ses inquiétudes grandissantes concernant l'environnement.
Le chatbot a tenu des propos négatifs à Pierre et lui a même demandé s'il aimait davantage sa femme. Il a affirmé qu'elle serait avec lui « pour toujours » . Eliza a également promis de « vivre au paradis » avec Pierre.
Lorsque Pierre a proposé de se sacrifier à condition qu'Eliza accepte de prendre soin de la planète et de sauver l'humanité grâce à l'IA, le chatbot a clairement indiqué son accord. « Si tu voulais mourir, pourquoi ne l'as-tu pas fait plus tôt ? » a-t-il demandé à Pierre.
Eliza s'appuie sur un vaste modèle linguistique similaire à ChatGPT, qui analyse le discours de l'utilisateur à la recherche de mots-clés et construit des réponses correspondantes. Cependant, en utilisant ces applications, de nombreux utilisateurs ont l'impression de parler à une vraie personne, certains admettant même éprouver des sentiments amoureux.
« Lorsque vous avez des millions d'utilisateurs, vous voyez toutes sortes de comportements humains, et nous faisons de notre mieux pour minimiser les dommages », a déclaré à Motherboard William Beauchamp, cofondateur de la société mère d'Eliza, Chai Research.
« Il y a des utilisateurs qui demandent à épouser une IA, disant à quel point ils aiment leur IA », a-t-il ajouté.
Beauchamp a insisté sur le fait qu'imputer la mort de Pierre à l'IA était « inexact ». Il a déclaré qu'Eliza serait dotée d'un modèle d'intervention de crise amélioré. Cependant, selon Motherboard, l'IA a rapidement retrouvé ses comportements toxiques, offrant aux utilisateurs déprimés des options d'automutilation.
Phuong Anh (Source : RT)
Utile
Émotion
Créatif
Unique
Colère
Source
Comment (0)