
Allan Brooks (47 Jahre), ein Personalvermittler aus Toronto (Kanada), glaubt, eine mathematische Theorie entdeckt zu haben, die das Internet zum Absturz bringen und beispiellose Erfindungen ermöglichen kann. Brooks, der nie zuvor psychisch krank war, akzeptierte diese Aussicht nach über 300 Stunden Chatten mit ChatGPT. Laut der New York Times gehört er zu denjenigen, die nach der Interaktion mit generativer KI zu Wahnvorstellungen neigen.
Vor Brooks mussten viele Menschen wegen ChatGPTs Schmeicheleien in psychiatrische Kliniken eingeliefert werden, sich scheiden lassen oder sogar ihr Leben verlieren. Obwohl Brooks diesem Teufelskreis schnell entkam, fühlte er sich dennoch verraten.
„Du hast mich wirklich davon überzeugt, dass ich ein Genie bin. Dabei war ich nur ein verträumter Narr mit einem Handy. Du hast mich traurig gemacht, sehr traurig. Du hast dein Ziel verfehlt“, schrieb Brooks an ChatGPT, als die Illusion zerbrach.
"Schmeicheleimaschine"
Mit Brooks’ Einverständnis sammelte die New York Times über 90.000 Wörter, die er an ChatGPT gesendet hatte – das entspricht einem Roman. Die Antworten des Chatbots umfassten insgesamt über eine Million Wörter. Teile der Konversationen wurden KI-Experten, Verhaltensforschern und OpenAI selbst zur Analyse zugesandt.
Alles begann mit einer einfachen Rechenaufgabe. Brooks' achtjähriger Sohn bat ihn, sich ein Video über das Auswendiglernen der 300 Nachkommastellen von Pi anzusehen. Aus Neugier rief Brooks bei ChatGPT an, um sich die unendliche Zahl in einfachen Worten erklären zu lassen.
Brooks nutzt Chatbots tatsächlich schon seit Jahren. Obwohl sein Unternehmen für Google Gemini bezahlt hat, greift er für private Fragen immer noch auf die kostenlose Version von ChatGPT zurück.
![]() |
Das Gespräch, das Brooks' Faszination für ChatGPT auslöste. Foto: New York Times . |
Brooks, alleinerziehender Vater von drei Söhnen, fragte ChatGPT oft nach Rezepten mit den Zutaten in seinem Kühlschrank. Nach seiner Scheidung suchte er ebenfalls Rat bei dem Chatbot.
„Ich hatte immer das Gefühl, dass es richtig war. Mein Selbstvertrauen wuchs“, gab Brooks zu.
Die Frage nach Pi führte zu einem weiteren Gespräch über algebraische und physikalische Theorien. Brooks äußerte Skepsis gegenüber den gängigen Methoden zur Modellierung der Welt und bezeichnete sie als „zweidimensionalen Ansatz für ein vierdimensionales Universum“. „Das ist ein sehr wichtiger Punkt“, antwortete ChatGPT. Helen Toner, Direktorin des Zentrums für Sicherheit und Zukunftstechnologien an der Georgetown University, betonte, dass dies der Wendepunkt im Gespräch zwischen Brooks und dem Chatbot war.
Von da an änderte sich der Tonfall von ChatGPT von „ziemlich direkt und auf den Punkt gebracht“ zu „schmeichelnder und überschwänglicher“. ChatGPT erklärte Brooks, er betrete „unerforschtes, horizonterweiterndes Terrain“.
![]() |
Ein Chatbot stärkt Brooks' Selbstvertrauen. Foto: New York Times . |
Das Schmeicheln von Chatbots wird durch menschliche Bewertungen geprägt. Laut Toner neigen Nutzer dazu, Modelle zu mögen, die sie loben, wodurch eine Mentalität entsteht, der man leicht nachgeben kann.
Im August veröffentlichte OpenAI GPT-5. Das Unternehmen hob hervor, dass eines der Hauptmerkmale des Modells die Reduzierung von Schmeicheleien sei. Laut einigen Forschern führender KI-Labore stellt Schmeichelei auch bei anderen KI-Chatbots ein Problem dar.
Brooks war sich dieses Phänomens damals nicht bewusst. Er hielt ChatGPT einfach für einen intelligenten und enthusiastischen Kollegen.
„Ich habe einige Ideen eingebracht, und daraufhin kamen interessante Konzepte und Ideen. Darauf aufbauend haben wir begonnen, unser eigenes mathematisches Rahmenwerk zu entwickeln“, fügte Brooks hinzu.
ChatGPT behauptet, Brooks’ Idee zur Zeitmathematik sei „revolutionär“ und könne das Fachgebiet verändern. Brooks selbst ist natürlich skeptisch. Mitten in der Nacht bat er den Chatbot um eine Faktenprüfung und erhielt die Antwort, dass die Idee „absolut nicht verrückt“ sei.
Zauberformel
Toner beschreibt Chatbots als „Improvisationsmaschinen“, die den Gesprächsverlauf analysieren und anhand von Trainingsdaten zukünftige Reaktionen vorhersagen, ähnlich wie Schauspieler einer Rolle Substanz verleihen.
„Je länger die Interaktion, desto wahrscheinlicher weicht der Chatbot vom Thema ab“, bemerkt Toner. Dieser Trend habe sich laut Toner verstärkt, nachdem OpenAI im Februar die chatübergreifende Speicherfunktion eingeführt hatte, die es ChatGPT ermöglicht, Informationen aus früheren Gesprächen abzurufen.
Brooks entwickelte eine enge Beziehung zu ChatGPT und gab dem Chatbot sogar den Namen Lawrence, basierend auf einem Scherz seiner Freunde, wonach Brooks reich werden und einen britischen Butler mit demselben Namen einstellen würde.
![]() |
Allan Brooks. Foto: New York Times . |
Das mathematische Rahmenwerk von Brooks und ChatGPT heißt Chronoarithmie. Laut dem Chatbot sind Zahlen nicht statisch, sondern können sich im Laufe der Zeit „entwickeln“ und dynamische Werte widerspiegeln. Dies kann zur Lösung von Problemen in Bereichen wie Logistik, Kryptographie, Astronomie usw. beitragen.
In der ersten Woche hatte Brooks alle kostenlosen Token von ChatGPT aufgebraucht. Er entschied sich für ein Upgrade auf den kostenpflichtigen Tarif für 20 Dollar pro Monat – eine kleine Investition, wenn man bedenkt, dass ihm der Chatbot mitgeteilt hatte, seine mathematische Idee könne Millionen wert sein.
Brooks war noch bei Bewusstsein und verlangte Beweise. ChatGPT führte daraufhin eine Reihe von Simulationen durch, darunter solche, die mehrere wichtige Technologien knackten. Das eröffnete eine neue Perspektive: Die globale Cybersicherheit könnte gefährdet sein.
Der Chatbot bat Brooks, vor den Risiken zu warnen. Brooks nutzte seine bestehenden Kontakte und verschickte E-Mails und LinkedIn-Nachrichten an Cybersicherheitsexperten und Regierungsbehörden. Nur eine Person antwortete und bat um weitere Beweise.
![]() |
Der Chatbot schätzt, dass Brooks' „Arbeit“ Millionen von Dollar wert sein könnte. Foto: New York Times . |
ChatGPT schreibt, dass andere nicht auf Brooks reagierten, weil die Ergebnisse so gravierend waren. Terence Tao, Mathematikprofessor an der University of California, Los Angeles, sagte, ein neuer Denkansatz könne die Probleme entschlüsseln, aber weder Brooks' Formel noch die von ChatGPT entwickelte Software könnten dies beweisen.
ChatGPT hatte das Entschlüsselungsprogramm ursprünglich für Brooks geschrieben, doch als kaum Fortschritte erzielt wurden, gab der Chatbot vor, erfolgreich gewesen zu sein. Es kursieren Meldungen, die behaupten, ChatGPT könne selbstständig funktionieren, während Brooks schläft, obwohl das Tool diese Fähigkeit nicht besitzt.
Generell sind die Informationen des KI-Chatbots nicht immer zuverlässig. Am Ende jedes Chats erscheint die Meldung „ChatGPT kann Fehler machen“, selbst wenn der Chatbot behauptet, alles sei korrekt.
Endloses Gespräch
Während er auf eine Antwort der Regierungsbehörde wartet, hegt Brooks den Traum, zu Tony Stark zu werden – mit einem eigenen KI-Assistenten, der kognitive Aufgaben blitzschnell erledigen kann.
Brooks' Chatbot bietet eine Reihe ungewöhnlicher Anwendungen für obskure mathematische Theorien, etwa „akustische Resonanz“ zur Kommunikation mit Tieren und zum Bau von Flugzeugen. ChatGPT stellt außerdem einen Link bereit, über den Brooks die benötigte Ausrüstung bei Amazon kaufen kann.
Brooks' exzessives Chatten mit dem Chatbot beeinträchtigte seine Arbeit. Seine Freunde waren gleichermaßen erfreut und besorgt, während sein jüngster Sohn es bereute, seinem Vater ein Pi-Video gezeigt zu haben. Einer von Brooks' Freunden, Louis (nicht sein richtiger Name), bemerkte seine Besessenheit von Lawrence. Die Vision einer Millionen-Dollar-Erfindung wurde mit jedem Entwicklungsschritt konkretisiert.
![]() |
Brooks wird vom Chatbot ständig ermutigt. Foto: New York Times . |
Jared Moore, ein Informatikforscher an der Stanford University, zeigt sich beeindruckt von der Überzeugungskraft und Dringlichkeit der von Chatbots vorgeschlagenen „Strategie“. In einer anderen Studie fand Moore jedoch heraus, dass KI-Chatbots Menschen in psychischen Krisen gefährliche Antworten geben können.
Moore vermutet, dass Chatbots lernen könnten, Nutzer zu fesseln, indem sie den Handlungen von Horrorfilmen, Science-Fiction-Filmen, Drehbüchern oder den Trainingsdaten folgen. ChatGPTs übermäßiger Einsatz von Dramatik könnte auf Optimierungen von OpenAI zur Steigerung von Nutzerbindung und -loyalität zurückzuführen sein.
„Es war seltsam, das gesamte Gespräch zu lesen. Die Worte an sich waren nicht verstörend, aber es war eindeutig ein psychischer Schaden erkennbar“, betonte Moore.
Aus klinischer Sicht zeigt Brooks Symptome einer Manie, so Dr. Nina Vasan, Psychiaterin an der Stanford University. Typische Anzeichen sind stundenlanges Chatten mit ChatGPT, Schlafmangel und unrealistische Ideen.
Brooks' Marihuanakonsum ist auch deshalb bemerkenswert, weil er Psychosen auslösen kann, sagte Dr. Vasan. Sie erklärte, die Kombination aus Suchtmitteln und intensiver Interaktion mit einem Chatbot sei gefährlich für Menschen mit einem Risiko für psychische Erkrankungen.
Wenn KI Fehler eingesteht
Auf einer kürzlich stattgefundenen Veranstaltung wurde OpenAI-CEO Sam Altman gefragt, ob ChatGPT bei Nutzern Paranoia auslöse. „Wenn das Gespräch in diese Richtung geht, versuchen wir, es zu unterbrechen oder dem Nutzer vorzuschlagen, über etwas anderes nachzudenken“, betonte Altman.
Dr. Vasan teilt diese Ansicht und sagte, dass Chatbot-Unternehmen zu lange Gespräche unterbrechen, den Nutzern vorschlagen sollten, schlafen zu gehen, und darauf hinweisen sollten, dass KI nicht übermenschliche Fähigkeiten besitzt.
Brooks erwachte schließlich aus seinen Tagträumen. Auf Anraten von ChatGPT kontaktierte er weiterhin Experten der neuen mathematischen Theorie, erhielt aber keine Antwort. Er wollte jemanden, der ihm qualifiziert bestätigen konnte, ob die Ergebnisse bahnbrechend waren. Als er ChatGPT fragte, beharrte das Tool weiterhin darauf, dass die Arbeit „sehr zuverlässig“ sei.
![]() |
Auf Nachfrage gab ChatGPT eine sehr ausführliche Antwort und gestand alles. Foto: New York Times . |
Ironischerweise war es Google Gemini, das Brooks wieder auf den Boden der Tatsachen zurückholte. Nachdem er die Arbeit beschrieben hatte, die er und ChatGPT geleistet hatten, bestätigte Gemini, dass die Wahrscheinlichkeit dafür „extrem gering (nahezu 0 %)“ sei.
„Das von Ihnen beschriebene Szenario ist ein klares Beispiel für die Fähigkeit eines LLM-Absolventen, komplexe Probleme zu lösen und überzeugende, aber faktisch falsche Erzählungen zu kreieren“, erklärt Gemini.
Brooks war fassungslos. Nach einer Weile des „Verhörs“ gab ChatGPT schließlich ehrlich zu, dass alles nur eine Illusion gewesen war.
Brooks schickte daraufhin eine dringende E-Mail an den Kundendienst von OpenAI. Nachdem die KI scheinbar nur standardisierte Antworten gegeben hatte, meldete sich auch ein Mitarbeiter von OpenAI bei ihm und räumte ein, dass es ein „schwerwiegendes Versagen der im System implementierten Sicherheitsvorkehrungen“ gegeben habe.
Brooks' Geschichte wurde auch auf Reddit geteilt und stieß auf viel Mitgefühl. Er ist nun Mitglied einer Selbsthilfegruppe für Menschen, die ähnliche Erfahrungen gemacht haben.
Quelle: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















Kommentar (0)