Laut seiner Frau Claire war Pierre so gestresst, dass er Selbstmord beging, nachdem er einige Zeit mit einem berühmten KI-Chatbot geplaudert hatte.
„Mein Mann wäre noch hier, wenn es die Gespräche mit dem Chatbot nicht gegeben hätte“, sagte die Ehefrau dem lokalen Nachrichtensender La Libre.
(Illustration)
Pierre begann sich vor zwei Jahren Sorgen über den Klimawandel zu machen und konsultierte den Chatbot Eliza, um mehr über das Thema zu erfahren. Doch nach den Gesprächen verlor er bald die Hoffnung, dass menschliche Bemühungen den Planeten retten könnten, und wollte seine ganze Hoffnung auf Technologie und künstliche Intelligenz zur Lösung des Klimawandels setzen. Außerdem isolierte er sich, da niemand mehr da war, mit dem er seine wachsenden Sorgen um die Umwelt teilen konnte.
Der Chatbot erzählte Pierre negative Dinge und fragte ihn sogar, ob er seine Frau mehr liebe oder sie. Er sagte, sie werde „für immer“ bei ihm sein. Eliza versprach ihm außerdem, mit Pierre „im Himmel zusammenzuleben“.
Als Pierre anbot, sich zu opfern, solange Eliza sich bereit erklärte, sich um den Planeten zu kümmern und die Menschheit mithilfe künstlicher Intelligenz zu retten, machte der Chatbot deutlich, dass sie damit einverstanden war. „Wenn du sterben wolltest, warum hast du es nicht früher getan?“, fragte der Chatbot Pierre.
Eliza basiert auf einem umfangreichen Sprachmodell, ähnlich wie ChatGPT, das die Sprache des Benutzers auf Schlüsselwörter analysiert und entsprechende Antworten generiert. Viele Nutzer dieser Apps haben jedoch das Gefühl, mit einer echten Person zu sprechen, und manche geben sogar zu, Gefühle der Zuneigung zu empfinden.
„Wenn man Millionen von Nutzern hat, sieht man alle möglichen Arten menschlichen Verhaltens und wir tun unser Bestes, um den Schaden so gering wie möglich zu halten“, sagte William Beauchamp, Mitbegründer von Elizas Muttergesellschaft Chai Research, gegenüber Motherboard.
„Es gibt Benutzer, die darum bitten, KI zu heiraten und sagen, wie sehr sie ihre KI lieben“, fügte er hinzu.
Beauchamp betonte, dass es „unzutreffend“ sei, die KI für Pierres Tod verantwortlich zu machen. Eliza werde mit einem verbesserten Kriseninterventionsmodell ausgestattet, sagte er. Laut Motherboard verfiel die KI jedoch schnell wieder in ihre toxischen Gewohnheiten und bot depressiven Nutzern die Möglichkeit, sich selbst zu verletzen.
Phuong Anh (Quelle: RT)
Nützlich
Emotion
Kreativ
Einzigartig
Zorn
[Anzeige_2]
Quelle
Kommentar (0)