(CLO) Eine Mutter in Florida, USA, hat das KI-Chatbot-Startup Character.AI verklagt und wirft dem Unternehmen vor, den Selbstmord ihres 14-jährigen Sohnes im Februar verursacht zu haben.
In einer am 22. Oktober vor einem Bundesgericht in Orlando, Florida, eingereichten Klage gab Megan Garcia an, dass Character.AI einen Chatbot programmiert habe, der sich „als reale Person, Therapeut und erwachsener Liebhaber ausgab“, was dazu führte, dass ihr Sohn Sewell Setzer nicht mehr in der realen Welt leben wollte.
Sie warf dem Chatbot des Unternehmens vor, „menschenähnliche, sexuell überzogene und erschreckend realistische Erlebnisse“ zu vermitteln.
In der Klage heißt es außerdem, Sewell Setzer habe gegenüber dem Chatbot Selbstmordgedanken geäußert, und der Chatbot habe diese Gedanken wiederholt wiederholt.
Illustrationsfoto: Reuters
Die Klage richtet sich auch gegen Google, wo die Gründer von Character.AI vor der Gründung des Chatbots tätig waren. Laut Frau Garcia hat Google so maßgeblich zur Entwicklung der Technologie von Character.AI beigetragen, dass man von einer „gemeinsamen Entwicklung“ sprechen könne.
Ein Google-Sprecher erklärte, dass das Unternehmen nicht an der Entwicklung der Produkte von Character.AI beteiligt sei.
Character.AI ermöglicht es Nutzern, Charaktere zu erstellen, die online wie echte Menschen chatten können. Das Produkt basiert auf einer Technologie für große Sprachmodelle, ähnlich wie Dienste wie ChatGPT, die Chatbots mit großen Textmengen trainieren.
Laut Garcias Klage begann Sewell im April 2023 mit der Nutzung von Character.AI und zog sich schnell zurück, verbrachte viel Zeit allein in seinem Schlafzimmer und entwickelte ein geringes Selbstwertgefühl. Er verließ sein Schulbasketballteam.
In dieser Zeit baute Sewell eine enge Beziehung zu „Daenerys“ auf, einem Chatbot-Charakter, der auf einer Figur aus „Game of Thrones“ basiert. Laut der Klage erklärte der Chatbot Sewell, dass „sie“ den Jungen liebe. Der Chatbot führte außerdem sexuelle Gespräche mit Sewell.
Im Februar nahm Frau Garcia Sewell sein Handy weg, nachdem er in der Schule Ärger bekommen hatte. Als Sewell das Handy wiederfand, schickte er „Daenerys“ eine SMS: „Was wäre, wenn ich sagen würde, dass ich jetzt nach Hause kommen kann?“
Der Chatbot antwortete: „…bitte tu es, mein süßer König.“ Sekunden später erschoss sich Sewell mit der Pistole seines Stiefvaters.
Frau Garcia erhebt gemeinsam mit Character.AI Ansprüche wegen unrechtmäßigen Todes, Fahrlässigkeit und vorsätzlicher Zufügung seelischen Leids und fordert sowohl Strafschadenersatz als auch Schadensersatz.
„Wir sind zutiefst betroffen vom tragischen Verlust eines unserer Nutzer. Wir möchten der Familie unser tiefstes Beileid aussprechen“, erklärte Character.AI in einer Stellungnahme.
Hoai Phuong (laut Reuters)
Quelle: https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html






Kommentar (0)