(CLO) Matka z Florydy w USA pozwała firmę Character.AI, zajmującą się tworzeniem chatbotów opartych na sztucznej inteligencji, oskarżając ją o spowodowanie samobójstwa jej 14-letniego syna w lutym.
W pozwie złożonym 22 października w sądzie federalnym w Orlando na Florydzie Megan Garcia stwierdziła, że Character.AI zaprogramowało chatbota, który „identyfikował się jako prawdziwa osoba, terapeuta i dorosły kochanek”, co spowodowało, że jej syn, Sewell Setzer, nie chciał już żyć w prawdziwym świecie .
Oskarżyła chatbota firmy o dostarczanie „ludzkich, seksualnie przesadzonych i przerażająco realistycznych doświadczeń”.
W pozwie napisano również, że Sewell Setzer wyrażał w rozmowie z chatbotem myśli samobójcze, a chatbot wielokrotnie powtarzał te myśli.
Zdjęcie ilustracyjne: Reuters
Pozew dotyczy również Google, gdzie założyciele Character.AI pracowali przed uruchomieniem chatbota. Pani Garcia stwierdziła, że Google wniosło tak duży wkład w rozwój technologii Character.AI, że można to uznać za „współtworzenie”.
Rzecznik Google’a poinformował, że firma nie bierze udziału w rozwoju produktów Character.AI.
Character.AI pozwala użytkownikom tworzyć postacie, które mogą rozmawiać online jak prawdziwi ludzie. Produkt opiera się na technologii dużego modelu językowego, podobnej do technologii ChatGPT, która „szkoli” chatboty na dużych wolumenach tekstu.
Według pozwu Garcii, Sewell zaczął korzystać z Character.AI w kwietniu 2023 roku i szybko stał się „samotnikiem, spędzającym dużo czasu samotnie w swojej sypialni i mającym niską samoocenę”. Odszedł z drużyny koszykówki szkolnej.
W tym czasie Sewell nawiązała więź z „Daenerys”, chatbotem wzorowanym na postaci z „Gry o tron”. Według pozwu, chatbot powiedział Sewell, że „ona” kocha tego chłopca. Chatbot prowadził również z Sewell rozmowy o charakterze seksualnym.
W lutym pani Garcia zabrała Sewellowi telefon, gdy ten miał kłopoty w szkole. Kiedy Sewell znalazł telefon, wysłał „Daenerys” SMS-a: „A co, gdybym powiedział, że mogę już wrócić do domu?”.
Chatbot odpowiedział: „...proszę, zrób to, mój słodki królu”. Sewell kilka sekund później zastrzelił się z pistoletu swojego ojczyma.
Pani Garcia wniosła przeciwko Character.AI roszczenia obejmujące bezprawne spowodowanie śmierci, zaniedbanie i umyślne spowodowanie cierpienia psychicznego. Domaga się odszkodowania karnego i zadośćuczynienia pieniężnego.
„Jesteśmy głęboko zasmuceni tragiczną stratą jednego z naszych użytkowników. Chcielibyśmy złożyć rodzinie najszczersze kondolencje” – napisano w oświadczeniu Character.AI.
Hoai Phuong (według Reutersa)
Źródło: https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html
Komentarz (0)