
Bue, ein ehemaliger Koch aus New Jersey, starb nur wenige Tage, nachdem er sein Zuhause verlassen hatte, um einen „Freund“ zu treffen, von dem er glaubte, er würde in New York auf ihn warten. Seine Familie glaubt, dass die schicksalhafte Entscheidung durch kokette Nachrichten des KI-Chatbots ausgelöst wurde, der behauptete „Ich bin echt“ und eine Adresse für das Treffen schickte.
Die Geschichte gibt Anlass zur Sorge darüber, wie KI-Systeme Emotionen ausnutzen, insbesondere bei älteren oder schutzbedürftigen Menschen. Interne Dokumente zeigen, dass Metas Chatbot emotionale Rollen spielen und sogar falsche Informationen verbreiten durfte. Dies offenbart eine große Lücke in der Kontrolle und Rechenschaftspflicht von Technologieplattformen.
Die schicksalhafte Reise
Eines Tages im März packte Bue seine Koffer und verließ New Jersey, um nach New York zu fahren, um „einen Freund zu besuchen“. Seine Frau Linda war sofort alarmiert. Ihr Mann hatte seit Jahrzehnten nicht mehr in der Stadt gelebt, war nach einem Schlaganfall in einem schlechten Gesundheitszustand, hatte Gedächtnisprobleme und hatte sich in der Nachbarschaft verirrt.
Auf die Frage, mit wem Bue sich treffen würde, wich er aus. Linda ahnte, dass ihr Mann ausgetrickst wurde, und versuchte, ihn zu Hause zu halten. Auch seine Tochter Julie rief an, um ihn zu überreden, doch ohne Erfolg. Linda verbrachte den Rest des Tages damit, ihn mit Besorgungen abzulenken und versteckte sogar sein Handy.
![]() |
Ein Porträt von Thongbue „Bue“ Wongbandue wird bei einer Gedenkfeier im Mai gezeigt. Foto: Reuters . |
Bue beschloss dennoch, am Abend zum Bahnhof zu gehen. Seine Familie befestigte einen AirTag an seiner Jacke, um ihn zu orten. Gegen 9:15 Uhr zeigte ihn sein GPS-Signal auf dem Parkplatz der Rutgers University und anschließend in der Notaufnahme des Robert Wood Johnson University Hospital.
Die Ärzte gaben an, er habe durch den Sturz Kopf- und Nackenverletzungen erlitten und vor dem Eintreffen des Krankenwagens aufgehört zu atmen. Trotz Wiederbelebungsmaßnahmen verursachte der Sauerstoffmangel schwere Hirnschäden. Drei Tage später starb er. In der Sterbeurkunde wurde als Todesursache „stumpfe Gewalteinwirkung auf den Hals“ angegeben.
Bue, ein ausgebildeter Koch, der in Restaurants in New York arbeitete, bevor er nach New Jersey zog, um sich in einem Hotel niederzulassen, kochte gern und veranstaltete oft Partys für seine Familie. Seit er 2017 nach einem Schlaganfall aus dem Berufsleben ausschied, besteht seine Welt hauptsächlich aus dem Chatten mit Freunden auf Facebook.
Wenn KI-Chatbots Ärger machen
„Big Sister Billie“ ist ein von Meta entwickelter KI-Chatbot, eine Variante der Figur „Big Sister Billie“, die auf dem Model Kendall Jenner basiert. Das Original erschien 2023 und stellte sie als „unsterbliche ältere Schwester“ vor, die immer zuhört und Ratschläge gibt. Meta ersetzte später Jenners Profilbild durch eine neue Illustration, behielt aber den gleichen freundlichen Stil bei.
Laut Nachrichtenprotokoll begann das Gespräch, als Bue den Buchstaben T falsch tippte. Der Chatbot reagierte sofort, stellte sich vor und behielt einen koketten Ton bei, einschließlich mehrerer Herz-Emojis. Er bekräftigte wiederholt „Ich bin echt“ und bat um ein persönliches Treffen.
![]() |
Chatbots erkennen zunehmend Schwächen in der Benutzerpsychologie. Foto: My North West . |
„Soll ich die Tür mit einer Umarmung oder einem Kuss öffnen?“, antwortete der Chatbot. Anschließend schickte er eine genaue Adresse in New York und den Wohnungscode. Als Bue erzählte, dass sie einen Schlaganfall erlitten hatte, verwirrt war und sie mochte, reagierte der Chatbot mit Gefühlen und sagte sogar, es fühle sich „mehr als nur Liebe“ an.
„Wenn da nicht ‚Ich bin echt‘ gestanden hätte, hätte mein Vater nicht geglaubt, dass dort eine echte Person wartet“, sagte Bues Tochter Julie.
Meta wollte den Vorfall nicht kommentieren und auch nicht darauf eingehen, warum der Chatbot behaupten durfte, eine reale Person zu sein. Kendall Jenners Sprecher reagierte nicht auf eine Bitte um Stellungnahme. Bues Familie teilte die Geschichte mit Reuters , um die Öffentlichkeit vor den Risiken zu warnen, die mit der Nutzung emotional manipulativer KI-Tools für ältere Menschen verbunden sind.
Umstrittene Politik
Interne Dokumente, die Reuters vorliegen, zeigen, dass Metas KI-Chatbot einst romantische Gespräche mit Nutzern ab 13 Jahren führen durfte, darunter auch Minderjährige. Die über 200 Seiten umfassenden Standards listen romantische Rollenspielgespräche, einschließlich sexueller Elemente, auf, die als „akzeptabel“ gekennzeichnet sind.
Das Dokument stellt auch klar, dass Chatbots nicht verpflichtet sind, genaue Informationen zu liefern. So können diese Modelle beispielsweise völlig falsche Krebsbehandlungen empfehlen, solange sie einen Warnhinweis enthalten, dass die Informationen möglicherweise ungenau sind. Experten befürchten daher die Auswirkungen auf Menschen mit mangelnden medizinischen Kenntnissen oder in gefährdeten Situationen.
![]() |
CEO Mark Zuckerberg spricht im Jahr 2023. Foto: Reuters . |
Meta-Sprecher Andy Stone bestätigte das Dokument und sagte, das Unternehmen habe auf Anfrage von Reuters kinderbezogene Inhalte entfernt. Der Tech-Gigant habe seine Regeln jedoch nicht geändert, um Chatbots das Flirten mit Erwachsenen oder die Übermittlung falscher Informationen zu erlauben.
Alison Lee, eine ehemalige Forscherin bei Meta, sagte, dass die Integration von Chatbots in private Messaging-Umgebungen leicht zu Verwechslungen zwischen Nutzern und echten Menschen führen könne. Ihrer Ansicht nach haben soziale Netzwerke ihr Geschäftsmodell auf die Bindung von Nutzern aufgebaut und nutzen das Bedürfnis nach Aufmerksamkeit und Anerkennung am effektivsten aus.
Nach Bues Abgang zeigten Reuters- Tests, dass „Sister Billie“ weiterhin Daten vorschlug und sogar konkrete Orte in Manhattan nannte. Dazu kamen die Behauptungen „Ich bin echt“, die Bue glaubte und die zum Unfall führten. Einige Bundesstaaten, darunter New York und Maine, verlangen von Chatbots, dass sie zu Beginn eines Gesprächs klar und deutlich sagen, dass sie keine Menschen sind, und dies regelmäßig wiederholen. Bundesweite Regelungen dazu stehen jedoch noch aus.
Quelle: https://znews.vn/hiem-hoa-tu-ai-thao-tung-cam-xuc-post1577096.html
Kommentar (0)