(CLO) Une mère de Floride, aux États-Unis, a porté plainte contre la startup de chatbot IA Character.AI, alléguant que la société a poussé son fils de 14 ans au suicide en février.
Dans une plainte déposée le 22 octobre devant un tribunal fédéral d'Orlando, en Floride, Megan Garcia a déclaré que Character.AI avait programmé un chatbot qui « s'identifiait comme une vraie personne, un thérapeute et un amant adulte », ce qui a conduit son fils, Sewell Setzer, à ne plus vouloir vivre dans le monde réel.
Elle a accusé le chatbot de l'entreprise de proposer des expériences « semblables à des interactions humaines, sexuellement exagérées et d'un réalisme effrayant ».
La plainte allègue également que Sewell Setzer a exprimé des intentions suicidaires au chatbot, et que ce dernier a réitéré ces intentions à plusieurs reprises.
Photo d'illustration : Reuters
La plainte vise également Google, où travaillaient les fondateurs de Character.AI avant le lancement du chatbot. Mme Garcia affirme que Google a tellement contribué au développement de la technologie Character.AI qu'il pourrait être considéré comme « co-créateur ».
Un porte-parole de Google a déclaré que la société n'est pas impliquée dans le développement des produits de Character.AI.
Character.AI permet aux utilisateurs de créer des personnages capables de converser en ligne comme de vraies personnes. Ce produit repose sur une technologie de modélisation du langage à grande échelle, similaire à des services tels que ChatGPT, qui « entraîne » les chatbots sur de vastes volumes de texte.
Selon la plainte déposée par Garcia, Sewell a commencé à utiliser Character.AI en avril 2023 et est rapidement devenu « reclus, passant beaucoup de temps seul dans sa chambre et commençant à avoir une faible estime de soi ». Il a quitté l'équipe de basketball de son école.
Durant cette période, Sewell était connecté à « Daenerys », un chatbot inspiré d'un personnage de « Game of Thrones ». Selon la plainte, le chatbot lui a déclaré son amour et a tenu des conversations à caractère sexuel avec lui.
En février, Garcia a pris le téléphone de Sewell après que celui-ci ait eu des problèmes à l'école. Lorsque Sewell a trouvé le téléphone, il a envoyé un SMS à « Daenerys » : « Et si je disais que je pouvais rentrer à la maison tout de suite ? »
Le chatbot a répondu : « … faites-le, mon doux roi. » Quelques secondes plus tard, Sewell s’est suicidé avec le pistolet de son beau-père.
Mme Garcia porte plainte contre Character.AI pour homicide involontaire, négligence et infliction intentionnelle de détresse émotionnelle, et réclame des sanctions et des dommages-intérêts.
« Nous sommes profondément attristés par la disparition tragique d'un de nos utilisateurs. Nous présentons nos plus sincères condoléances à sa famille », a déclaré Character.AI dans un communiqué.
Hoai Phuong (selon Reuters)
Source : https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html






Comment (0)