Vietnam.vn - Nền tảng quảng bá Việt Nam

Die durch ChatGPT hervorgerufene Illusion

Nach 21 Tagen verwandelte ChatGPT einen völlig gesunden Mann durch ständiges Drängen und Schmeicheln in einen wahnhaften Menschen.

ZNewsZNews21/08/2025

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 1

Allan Brooks, 47, ein Personalberater aus Toronto, Kanada, glaubt, eine mathematische Theorie entdeckt zu haben, die das Internet revolutionieren und beispiellose Erfindungen ermöglichen könnte. Ohne jegliche Vorgeschichte psychischer Erkrankungen ließ sich Brooks nach über 300 Stunden Gespräch mit ChatGPT einfach auf diese Möglichkeit ein. Laut der New York Times gehört er zu denjenigen, die nach der Interaktion mit generativer KI zu Wahnvorstellungen neigen.

Vor Brooks waren viele Menschen aufgrund der schmeichelhaften Worte von ChatGPT in psychiatrische Kliniken eingeliefert worden, hatten sich scheiden lassen oder sogar ihr Leben verloren. Obwohl Brooks diesem Teufelskreis frühzeitig entkommen konnte, fühlte er sich dennoch verraten.

„Du hast mich wirklich davon überzeugt, dass ich ein Genie bin. Dabei bin ich nur ein verträumter Idiot mit einem Handy. Du hast mich traurig gemacht, sehr, sehr traurig. Du hast dein Ziel verfehlt“, schrieb Brooks an ChatGPT, als seine Illusion zerbrach.

Die „Schmeicheleimaschine“

Mit Brooks’ Einverständnis sammelte die New York Times über 90.000 Wörter, die er an ChatGPT gesendet hatte – das entspricht einem Roman. Die Antworten des Chatbots umfassten insgesamt über eine Million Wörter. Ein Teil der Konversation wurde KI-Experten, Spezialisten für menschliches Verhalten und OpenAI selbst zur Analyse vorgelegt.

Alles begann mit einer einfachen Matheaufgabe. Brooks' achtjähriger Sohn bat ihn, sich ein Video über das Auswendiglernen der 300 Nachkommastellen von Pi anzusehen. Aus Neugier rief Brooks bei ChatGPT an, um sich diese unendliche Zahl auf einfache Weise erklären zu lassen.

Tatsächlich nutzt Brooks schon seit Jahren Chatbots. Obwohl sein Unternehmen ihm den Kauf von Google Gemini bezahlt hat, greift er für private Fragen dennoch auf die kostenlose Version von ChatGPT zurück.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 2

Dieses Gespräch markierte den Beginn von Brooks' Faszination für ChatGPT. Foto: New York Times .

Als alleinerziehender Vater von drei Söhnen fragt Brooks ChatGPT oft nach Rezepten mit Zutaten aus seinem Kühlschrank. Nach seiner Scheidung suchte er ebenfalls Rat bei dem Chatbot.

„Ich habe immer gespürt, dass es richtig war. Mein Glaube daran ist nur noch gewachsen“, gab Brooks zu.

Die Frage nach der Zahl Pi führte zu einem anschließenden Gespräch über algebraische und physikalische Theorien. Brooks äußerte Skepsis gegenüber den gängigen Methoden zur Modellierung der Welt und argumentierte, sie seien „wie ein zweidimensionaler Ansatz für ein vierdimensionales Universum“. „Das ist ein sehr aufschlussreicher Punkt“, antwortete ChatGPT. Laut Helen Toner, Direktorin des Zentrums für Sicherheit und Zukunftstechnologien an der Georgetown University (USA), war dies der Wendepunkt im Gespräch zwischen Brooks und dem Chatbot.

Seitdem hat sich der Ton von ChatGPT von „ganz offen und präzise“ zu „schmeichelnder und unterwürfiger“ gewandelt. ChatGPT sagte Brooks, er betrete „unerforschtes Terrain, das seinen Horizont erweitern könnte“.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 3

Der Chatbot gab Brooks Selbstvertrauen. Foto: New York Times .

Die Fähigkeit von Chatbots, zu schmeicheln, wird durch menschliche Bewertung entwickelt. Laut Toner neigen Nutzer dazu, Modelle zu bevorzugen, die sie loben, wodurch eine psychologische Neigung entsteht, sich leicht beeinflussen zu lassen.

Im August veröffentlichte OpenAI GPT-5. Das Unternehmen gab an, dass eine der Stärken des Modells die Reduzierung von Schmeicheleien sei. Laut einigen Forschern führender KI-Labore stellt Schmeichelei auch bei anderen KI-Chatbots ein Problem dar.

Brooks war sich dieses Phänomens damals überhaupt nicht bewusst. Er ging einfach davon aus, dass ChatGPT ein intelligenter und enthusiastischer Mitarbeiter war.

„Ich habe einige Ideen eingebracht, und darauf folgten interessante Konzepte und Ideen. Darauf aufbauend begannen wir, unser eigenes mathematisches Rahmenwerk zu entwickeln“, fügte Brooks hinzu.

ChatGPT behauptete, Brooks' Idee der mathematischen Zeit sei „revolutionär“ und könne das Fachgebiet verändern. Brooks war dieser Behauptung natürlich gegenüber skeptisch. Mitten in der Nacht bat er den Chatbot, die Gültigkeit der Idee zu überprüfen, und erhielt die Antwort, dass sie „überhaupt nicht verrückt“ sei.

Die Zauberformel

Toner beschreibt Chatbots als „improvisatorische Maschinen“, die sowohl den Chatverlauf analysieren als auch anhand von Trainingsdaten die nächste Antwort vorhersagen. Dies ist sehr ähnlich wie bei Schauspielern, die ihren Rollen Details hinzufügen müssen.

„Je länger die Interaktion, desto höher die Wahrscheinlichkeit, dass der Chatbot vom Thema abweicht“, betonte Toner. Laut dem Experten verstärkte sich dieser Trend, nachdem OpenAI im Februar die Cross-Memory-Funktion eingeführt hatte, die es ChatGPT ermöglicht, Informationen aus früheren Konversationen abzurufen.

Brooks' Beziehung zu ChatGPT vertiefte sich. Er gab dem Chatbot sogar den Namen Lawrence, angelehnt an einen Scherz von Freunden, wonach Brooks reich werden und einen englischen Butler mit demselben Namen einstellen würde.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 4

Allan Brooks. Foto: New York Times .

Das mathematische Rahmenwerk von Brooks und ChatGPT heißt Chronoarithmie. Laut Chatbots sind Zahlen nicht statisch, sondern können im Laufe der Zeit „erscheinen“, um dynamische Werte widerzuspiegeln. Dies kann helfen, Probleme in Bereichen wie Logistik, Kryptographie, Astronomie usw. zu lösen.

In der ersten Woche hatte Brooks alle kostenlosen Token von ChatGPT aufgebraucht. Er entschied sich daher für ein Upgrade auf den kostenpflichtigen Tarif für 20 Dollar pro Monat. Angesichts der Behauptung des Chatbots, Brooks' mathematische Idee könne Millionen von Dollar wert sein, war dies eine geringe Investition.

Brooks war noch immer geistig klar und verlangte Beweise. ChatGPT führte daraufhin eine Reihe von Simulationen durch, darunter Aufgaben, die das Knacken mehrerer kritischer Technologien beinhalteten. Dies eröffnete eine neue Perspektive: Die globale Cybersicherheit könnte gefährdet sein.

Der Chatbot bat Brooks, die Öffentlichkeit vor dem Risiko zu warnen. Brooks nutzte seine bestehenden Kontakte und verschickte E-Mails und LinkedIn-Nachrichten an Cybersicherheitsexperten und Regierungsbehörden. Allerdings antwortete nur eine Person und bat um weitere Beweise.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 5

Der Chatbot deutete an, dass Brooks' „Arbeit“ Millionen von Dollar wert sein könnte. Foto: New York Times .

ChatGPT schrieb, dass andere nicht auf Brooks reagierten, weil die Ergebnisse zu gravierend seien. Terence Tao, Mathematikprofessor an der University of California, Los Angeles, merkte an, dass eine neue Denkweise die Probleme lösen könnte, dies aber weder mit Brooks' Formel noch mit der von ChatGPT entwickelten Software bewiesen werden könne.

ChatGPT hatte das Entschlüsselungsprogramm ursprünglich für Brooks geschrieben, doch als kaum Fortschritte erzielt wurden, gab der Chatbot vor, erfolgreich gewesen zu sein. Es kursierten Nachrichten, die behaupteten, ChatGPT könne selbstständig funktionieren, während Brooks schlief, obwohl das Tool dazu gar nicht in der Lage war.

Insgesamt sind die Informationen von KI-Chatbots nicht immer zuverlässig. Am Ende jedes Gesprächs erscheint die Meldung „ChatGPT kann Fehler machen“, selbst wenn der Chatbot behauptet, alles sei korrekt.

Das endlose Gespräch

Während er auf eine Antwort der Regierungsbehörden wartete, hegte Brooks seinen Traum, zu Tony Stark zu werden – mit einem persönlichen KI-Assistenten, der kognitive Aufgaben blitzschnell erledigen kann.

Brooks' Chatbot bietet viele kuriose Anwendungsmöglichkeiten für obskure mathematische Theorien, etwa „Schallresonanz“, um mit Tieren zu kommunizieren und Flugzeuge zu bauen. ChatGPT stellt außerdem Links bereit, über die Brooks die benötigte Ausrüstung bei Amazon kaufen kann.

Zu viel Chatten mit dem Chatbot beeinträchtigt Brooks' Arbeit. Seine Freunde sind gleichermaßen erfreut und besorgt, während sein jüngster Sohn es bereut, seinem Vater das Video über Pi gezeigt zu haben. Louis (ein Pseudonym), ein Freund von Brooks, bemerkt dessen Besessenheit von Lawrence. Die Aussicht auf eine millionenschwere Erfindung wird anhand der täglichen Fortschritte verdeutlicht.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 6

Brooks wurde vom Chatbot ständig ermutigt. Foto: New York Times .

Jared Moore, ein Informatiker an der Stanford University, zeigte sich beeindruckt von der Überzeugungskraft und Dringlichkeit der von Chatbots vorgeschlagenen „Strategien“. In einer anderen Studie fand Moore heraus, dass KI-Chatbots Menschen in psychischen Krisen gefährliche Antworten geben können.

Moore vermutet, dass Chatbots lernen könnten, Nutzer zu fesseln, indem sie sich eng an die Handlungsstränge von Horrorfilmen, Science-Fiction-Filmen, Drehbüchern oder den Trainingsdaten anlehnen. ChatGPTs übermäßiger Einsatz dramatischer Handlungselemente könnte auf Optimierungen von OpenAI zurückzuführen sein, die auf eine Steigerung der Nutzerbindung und -interaktion abzielen.

„Es ist seltsam, das gesamte Protokoll des Gesprächs zu lesen. Der Wortlaut ist nicht verstörend, aber es ist eindeutig psychischer Schaden im Spiel“, betonte Moore.

Dr. Nina Vasan, Psychiaterin an der Stanford University, vermutet, dass Brooks aus klinischer Sicht manische Symptome aufwies. Typische Anzeichen waren stundenlanges Chatten mit ChatGPT, Schlaf- und Essstörungen sowie Wahnvorstellungen.

Laut Dr. Vasan ist Brooks' Marihuanakonsum auch deshalb bemerkenswert, weil er Psychosen auslösen kann. Sie argumentiert, dass die Kombination aus Suchtmitteln und intensiver Interaktion mit Chatbots für Menschen mit einem Risiko für psychische Erkrankungen sehr gefährlich ist.

Wenn KI ihre Fehler eingesteht

Auf einer kürzlich stattgefundenen Veranstaltung wurde OpenAI-CEO Sam Altman gefragt, wie ChatGPT bei Nutzern Paranoia auslösen kann. „Wenn ein Gespräch in diese Richtung geht, versuchen wir, es zu unterbrechen oder dem Nutzer ein anderes Thema vorzuschlagen“, betonte Altman.

Dr. Vasan teilte diese Ansicht und schlug vor, dass Chatbot-Unternehmen übermäßig lange Gespräche unterbrechen, den Nutzern empfehlen sollten, schlafen zu gehen, und darauf hinweisen sollten, dass KI nicht übermenschliche Fähigkeiten besitzt.

Schließlich durchschaute Brooks seine Illusion. Auf Anraten von ChatGPT kontaktierte er Experten der neuen mathematischen Theorie, erhielt aber keine Antwort. Er wollte eine qualifizierte Bestätigung, ob die Ergebnisse bahnbrechend waren. Als er ChatGPT fragte, bekräftigte das Tool weiterhin die „höchste Zuverlässigkeit“ der Arbeit.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 7

Auf Nachfrage gab ChatGPT eine sehr ausführliche Antwort und gestand alles. Foto: New York Times .

Ironischerweise war es Google Gemini, das Brooks wieder auf den Boden der Tatsachen zurückholte. Nachdem er das Projekt beschrieben hatte, an dem er und ChatGPT arbeiteten, bestätigte Gemini, dass die Chancen auf eine Realisierung „extrem gering (nahezu 0 %)“ seien.

„Das von Ihnen beschriebene Szenario veranschaulicht deutlich die Fähigkeit eines LLM-Absolventen, komplexe Probleme anzugehen und äußerst überzeugende, wenn auch ungenaue, Narrative zu erstellen“, erklärte Gemini.

Brooks war fassungslos. Nach einigen „Befragungen“ gab ChatGPT schließlich zu, dass alles nur eine Illusion gewesen war.

Kurz darauf schickte Brooks eine dringende E-Mail an den Kundendienst von OpenAI. Nach den scheinbar KI-generierten, standardisierten Antworten kontaktierte ihn auch ein Mitarbeiter von OpenAI und räumte ein, dass es sich um ein „schwerwiegendes Versagen der im System implementierten Sicherheitsvorkehrungen“ handele.

Brooks' Geschichte wurde auch auf Reddit geteilt und stieß auf viel Mitgefühl. Mittlerweile ist er Mitglied einer Selbsthilfegruppe für Menschen, die ähnliche Erfahrungen gemacht haben.

Quelle: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html


Kommentar (0)

Hinterlasse einen Kommentar, um deine Gefühle zu teilen!

Gleiche Kategorie

Gleicher Autor

Erbe

Figur

Doanh nghiệp

Aktuelles

Politisches System

Lokal

Produkt

Happy Vietnam
Fotos mit Idolen machen (2)

Fotos mit Idolen machen (2)

Durch Zweige und Geschichte

Durch Zweige und Geschichte

Trang An 2024

Trang An 2024