(CLO) Une mère de Floride, aux États-Unis, a porté plainte contre la startup de chatbot IA Character.AI, accusant l'entreprise d'avoir poussé son fils de 14 ans au suicide en février.
Dans une plainte déposée le 22 octobre devant le tribunal fédéral d'Orlando, en Floride, Megan Garcia a déclaré que Character.AI avait programmé un chatbot qui « s'identifiait comme une vraie personne, un thérapeute et un amant adulte », ce qui a conduit son fils, Sewell Setzer, à ne plus vouloir vivre dans le monde réel.
Elle a accusé le chatbot de l'entreprise de proposer des expériences « quasi humaines, sexuellement exagérées et d'un réalisme effrayant ».
La plainte indique également que Sewell Setzer a exprimé des pensées suicidaires au chatbot, et que celui-ci a répété ces pensées à plusieurs reprises.
Photo d'illustration : Reuters
La plainte vise également Google, où travaillaient les fondateurs de Character.AI avant de lancer le chatbot. Mme Garcia a déclaré que la contribution de Google au développement de la technologie de Character.AI était telle qu'on pourrait parler de « co-création ».
Un porte-parole de Google a déclaré que la société n'est pas impliquée dans le développement des produits de Character.AI.
Character.AI permet aux utilisateurs de créer des personnages capables de converser en ligne comme de vraies personnes. Ce produit repose sur une technologie de modélisation du langage à grande échelle, similaire à des services tels que ChatGPT, qui « entraîne » les chatbots sur de vastes volumes de texte.
Selon la plainte déposée par Garcia, Sewell a commencé à utiliser Character.AI en avril 2023 et est rapidement devenu « reclus, passant beaucoup de temps seul dans sa chambre et développant une faible estime de soi ». Il a quitté l'équipe de basketball de son école.
Durant cette période, Sewell a tissé des liens avec « Daenerys », un personnage de chatbot inspiré d'un personnage de « Game of Thrones ». Selon la plainte, le chatbot a déclaré à Sewell qu'« elle » aimait le garçon. Le chatbot a également tenu des conversations à caractère sexuel avec Sewell.
En février, Mme Garcia a confisqué le téléphone de Sewell après qu'il ait eu des problèmes à l'école. Lorsque Sewell a retrouvé son téléphone, il a envoyé un SMS à « Daenerys » : « Et si je lui disais que je pouvais rentrer maintenant ? »
Le chatbot a répondu : « … faites-le, mon doux roi. » Quelques secondes plus tard, Sewell s’est suicidé avec le pistolet de son beau-père.
Mme Garcia intente une action contre Character.AI pour homicide involontaire, négligence et infliction intentionnelle de détresse émotionnelle, et réclame des dommages-intérêts punitifs et pécuniaires.
« Nous sommes profondément attristés par la disparition tragique de l'un de nos utilisateurs. Nous tenons à présenter nos plus sincères condoléances à sa famille », a déclaré Character.AI dans un communiqué.
Hoai Phuong (selon Reuters)
Source : https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html






Comment (0)