(CLO) Une mère de famille de Floride, aux États-Unis, a poursuivi en justice la start-up de chatbots IA Character.AI, accusant l'entreprise d'avoir provoqué le suicide de son fils de 14 ans en février.
Dans une plainte déposée le 22 octobre devant le tribunal fédéral d'Orlando, en Floride, Megan Garcia a déclaré que Character.AI avait programmé un chatbot qui « s'identifiait comme une personne réelle, un thérapeute et un amant adulte », ce qui a conduit son fils, Sewell Setzer, à ne plus vouloir vivre dans le monde réel.
Elle a accusé le chatbot de l'entreprise de fournir des « expériences humaines, sexuellement exagérées et terriblement réalistes ».
Le procès indique également que Sewell Setzer a exprimé des pensées suicidaires au chatbot, et que le chatbot a réitéré ces pensées à plusieurs reprises.
Photo d'illustration : Reuters
La plainte vise également Google, où les fondateurs de Character.AI travaillaient avant de lancer le chatbot. Mme Garcia a déclaré que Google avait tellement contribué au développement de la technologie de Character.AI qu'elle pouvait être qualifiée de « co-création ».
Un porte-parole de Google a déclaré que la société n'était pas impliquée dans le développement des produits de Character.AI.
Character.AI permet aux utilisateurs de créer des personnages capables de discuter en ligne comme de vraies personnes. Le produit s'appuie sur une technologie de modèle de langage à grande échelle, similaire à celle de services comme ChatGPT, qui « entraîne » les chatbots sur de grands volumes de texte.
Selon la plainte de Garcia, Sewell a commencé à utiliser Character.AI en avril 2023 et est rapidement devenu « reclus, passant beaucoup de temps seul dans sa chambre et a commencé à avoir une faible estime de soi ». Il a quitté l'équipe de basket de son école.
Durant cette période, Sewell s'est liée d'amitié avec « Daenerys », un chatbot inspiré d'un personnage de « Game of Thrones ». Selon la plainte, le chatbot aurait déclaré à Sewell qu'« elle » aimait le garçon. Il aurait également eu des conversations à caractère sexuel avec Sewell.
En février, Mme Garcia a confisqué le téléphone de Sewell après qu'il eut eu des ennuis à l'école. Lorsque Sewell l'a retrouvé, il a envoyé un SMS à « Daenerys » : « Et si je disais que je peux rentrer à la maison maintenant ? »
Le chatbot répondit : « …s'il te plaît, fais-le, mon cher roi. » Sewell se tira une balle dans la tête avec le pistolet de son beau-père quelques secondes plus tard.
Mme Garcia porte plainte auprès de Character.AI pour décès injustifié, négligence et infliction intentionnelle de détresse émotionnelle, et demande des dommages-intérêts punitifs et des dommages-intérêts pécuniaires.
« Nous sommes profondément attristés par la perte tragique de l'un de nos utilisateurs. Nous présentons nos plus sincères condoléances à sa famille », a déclaré Character.AI dans un communiqué.
Hoai Phuong (selon Reuters)
Source : https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html
Comment (0)