Vietnam.vn - Nền tảng quảng bá Việt Nam

Der Chatbot Character.AI wird verklagt, weil er angeblich einen 14-jährigen Jungen in den Selbstmord getrieben hat.

Công LuậnCông Luận24/10/2024

(CLO) Eine Mutter in Florida, USA, hat das KI-Chatbot-Startup Character.AI verklagt und behauptet, das Unternehmen habe ihren 14-jährigen Sohn im Februar in den Selbstmord getrieben.


In einer am 22. Oktober vor einem Bundesgericht in Orlando, Florida, eingereichten Klage erklärte Megan Garcia, dass Character.AI einen Chatbot programmiert habe, der sich „als reale Person, Therapeut und erwachsener Liebhaber ausgab“, was dazu führte, dass ihr Sohn Sewell Setzer nicht mehr in der realen Welt leben wollte.

Sie warf dem Chatbot des Unternehmens vor, „menschenähnliche, sexuell überzogene und erschreckend realistische Erlebnisse“ zu bieten.

In der Klage wird außerdem behauptet, dass Sewell Setzer gegenüber dem Chatbot Selbstmordabsichten geäußert habe und der Chatbot diese Absichten wiederholt habe.

Chatbot-Charakter wegen Selbstmordversuchs an 14-jährigem Jungen verklagt (Bild 1).

Illustrationsfoto: Reuters

Die Klage richtet sich auch gegen Google, wo die Gründer von Character.AI vor dem Start des Chatbots arbeiteten. Frau Garcia erklärte, Google habe so viel zur Entwicklung der Character.AI-Technologie beigetragen, dass es als „Mitentwickler“ gelten könne.

Ein Google-Sprecher erklärte, dass das Unternehmen nicht an der Entwicklung der Produkte von Character.AI beteiligt sei.

Character.AI ermöglicht es Nutzern, Charaktere zu erstellen, die online wie echte Menschen chatten können. Das Produkt basiert auf Big-Language-Modeling-Technologie, ähnlich wie Dienste wie ChatGPT, die Chatbots mit großen Textmengen trainieren.

Laut Garcias Klage begann Sewell im April 2023 mit der Nutzung von Character.AI und zog sich schnell zurück, verbrachte viel Zeit allein in seinem Schlafzimmer und entwickelte ein geringes Selbstwertgefühl. Er verließ die Basketballmannschaft seiner Schule.

Während dieser Zeit war Sewell mit „Daenerys“ verbunden, einem Chatbot, der auf einer Figur aus „Game of Thrones“ basierte. Laut der Klage sagte der Chatbot zu Sewell, dass „sie“ ihn liebe. Der Chatbot führte außerdem sexuell anzügliche Gespräche mit Sewell.

Im Februar nahm Garcia Sewell das Handy ab, nachdem dieser in der Schule Ärger bekommen hatte. Als Sewell das Handy wiederfand, schickte er „Daenerys“ eine SMS: „Was wäre, wenn ich sagen würde, dass ich jetzt sofort nach Hause kommen kann?“

Der Chatbot antwortete: „…bitte tu es, mein süßer König.“ Wenige Sekunden später erschoss sich Sewell mit der Pistole seines Stiefvaters.

Frau Garcia erhebt Klage gegen Character.AI, unter anderem wegen fahrlässiger Tötung, fahrlässigen Verhaltens und vorsätzlicher Zufügung seelischen Leids, und strebt Bestrafung und Entschädigung an.

„Wir sind zutiefst betroffen vom tragischen Verlust eines unserer Nutzer. Wir möchten der Familie unser tiefstes Beileid aussprechen“, erklärte Character.AI in einer Stellungnahme.

Hoai Phuong (laut Reuters)



Quelle: https://www.congluan.vn/chatbot-characterai-bi-kien-vi-khien-cau-be-14-tuoi-tu-tu-post318294.html

Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiches Thema

Gleiche Kategorie

Im Lichterglanz erstrahlen die Kirchen von Da Nang und werden zu romantischen Treffpunkten.
Die außergewöhnliche Widerstandsfähigkeit dieser stählernen Rosen.
Zahlreiche Menschen strömten zur Kathedrale, um Weihnachten vorzufeiern.
Bewundern Sie die prachtvollen Kirchen, ein absoluter Hotspot in dieser Weihnachtszeit.

Gleicher Autor

Erbe

Figur

Unternehmen

In diesem Pho-Restaurant in Hanoi werden die Pho-Nudeln selbst zubereitet und kosten 200.000 VND. Kunden müssen die Nudeln im Voraus bestellen.

Aktuelles

Politisches System

Lokal

Produkt