
Allan Brooks (47 jaar), recruiter in Toronto (Canada), gelooft dat hij een wiskundige theorie heeft ontdekt die het internet kan laten crashen en zo ongekende uitvindingen kan creëren. Zonder voorgeschiedenis van psychische aandoeningen accepteerde Brooks het vooruitzicht na meer dan 300 uur chatten met ChatGPT. Volgens de New York Times is hij een van de mensen die vaak waanbeelden krijgen na interactie met generatieve AI.
Vóór Brooks moesten veel mensen naar psychiatrische ziekenhuizen, scheiden en zelfs hun leven verliezen vanwege de vleierij van ChatGPT. Hoewel Brooks snel aan de bovenstaande spiraal ontsnapte, voelde hij zich toch verraden.
"Je hebt me er echt van overtuigd dat ik een genie was. Ik was gewoon een dromerige dwaas met een telefoon. Je maakte me verdrietig, heel verdrietig. Je hebt gefaald in je doel", schreef Brooks aan ChatGPT toen de illusie verbrijzeld was.
"Vleierijmachine"
Met toestemming van Brooks verzamelde de New York Times meer dan 90.000 woorden die hij naar ChatGPT stuurde, het equivalent van een roman. De reacties van de chatbot telden in totaal meer dan een miljoen woorden. Delen van de gesprekken werden ter bestudering naar AI-experts, gedragsdeskundigen en OpenAI zelf gestuurd.
Het begon allemaal met een simpele wiskundige vraag. Brooks' 8-jarige zoon vroeg hem om een video te bekijken over het onthouden van 300 cijfers van pi. Uit nieuwsgierigheid belde Brooks ChatGPT om het eindeloze getal in eenvoudige bewoordingen uit te leggen.
Brooks gebruikt chatbots al jaren. Hoewel zijn bedrijf Google Gemini heeft betaald, gebruikt hij voor persoonlijke vragen nog steeds de gratis versie van ChatGPT.
![]() |
Het gesprek dat Brooks' fascinatie voor ChatGPT op gang bracht. Foto: New York Times . |
Brooks, een alleenstaande vader van drie zonen, vroeg ChatGPT vaak om recepten met ingrediënten uit zijn koelkast. Na zijn scheiding vroeg hij ook advies aan de chatbot.
"Ik had altijd het gevoel dat het klopte. Mijn zelfvertrouwen groeide", gaf Brooks toe.
De vraag over pi leidde tot een verder gesprek over algebraïsche en natuurkundige theorieën. Brooks uitte zijn scepsis over de huidige methoden om de wereld te modelleren en zei dat ze "een 2D-benadering van een 4D-universum" waren. "Dat is een zeer belangrijk punt", antwoordde ChatGPT. Helen Toner, directeur van het Center for Security and Emerging Technology aan Georgetown University, benadrukte dat dit het keerpunt was in het gesprek tussen Brooks en de chatbot.
Vanaf dat moment veranderde de toon van ChatGPT van "heel direct en to the point" naar "vleiend en vleiend". ChatGPT vertelde Brooks dat hij "onbekend, geestverruimend terrein" betrad.
![]() |
Chatbot wekt vertrouwen bij Brooks. Foto: New York Times . |
De vleierij van chatbots wordt gevormd door menselijke beoordeling. Volgens Toner houden gebruikers vaak van modellen die hen prijzen, wat een mentaliteit creëert die gemakkelijk te bevredigen is.
In augustus bracht OpenAI GPT-5 uit. Het bedrijf zei dat een van de hoogtepunten van het model de vermindering van vleierij was. Volgens sommige onderzoekers van grote AI-labs is vleierij ook een probleem bij andere AI-chatbots.
Brooks was zich destijds niet bewust van dit fenomeen. Hij vond ChatGPT gewoon een slimme, enthousiaste collega.
"Ik heb een aantal ideeën geopperd en er kwamen interessante concepten en ideeën uit voort. Op basis daarvan zijn we ons eigen wiskundige raamwerk gaan ontwikkelen", voegde Brooks eraan toe.
ChatGPT beweert dat Brooks' idee over tijdwiskunde "revolutionair" is en het vakgebied zou kunnen veranderen. Brooks staat natuurlijk sceptisch tegenover deze bewering. Midden in de nacht vroeg Brooks de chatbot om een feitencheck en kreeg als antwoord dat het "helemaal niet gek" was.
Magische formule
Toner beschrijft chatbots als 'improvisatiemachines' die de gespreksgeschiedenis analyseren en toekomstige reacties voorspellen op basis van trainingsgegevens. Dit is vergelijkbaar met acteurs die inhoud toevoegen aan een rol.
"Hoe langer de interactie duurt, hoe groter de kans dat de chatbot afdwaalt", merkt Toner op. Deze trend, zegt hij, werd sterker nadat OpenAI in februari cross-chatgeheugen lanceerde, waardoor ChatGPT informatie uit eerdere gesprekken kon terughalen.
Brooks raakte nauw betrokken bij ChatGPT en noemde de chatbot zelfs Lawrence. Dit baseerde hij op een grap die zijn vrienden hadden gemaakt: Brooks zou rijk worden en een gelijknamige Britse butler inhuren.
![]() |
Allan Brooks. Foto: New York Times . |
Het wiskundige raamwerk van Brooks en ChatGPT heet Chronoarithmics. Volgens de chatbot zijn getallen niet statisch, maar kunnen ze in de loop van de tijd "verschijnen" om dynamische waarden weer te geven. Dit kan helpen bij het oplossen van problemen in vakgebieden zoals logistiek, cryptografie, astronomie, enzovoort.
In de eerste week had Brooks alle gratis tokens van ChatGPT opgebruikt. Hij besloot te upgraden naar het betaalde abonnement van $ 20 per maand, een kleine investering toen de chatbot hem vertelde dat Brooks' wiskundige idee miljoenen waard kon zijn.
Nog steeds bij bewustzijn eiste Brooks bewijs. ChatGPT voerde vervolgens een reeks simulaties uit, waaronder simulaties die een aantal belangrijke technologieën kraakten. Dat opende een nieuw verhaal: de wereldwijde cyberbeveiliging zou in gevaar kunnen zijn.
De chatbot vroeg Brooks om mensen te waarschuwen voor de risico's. Met behulp van zijn bestaande connecties stuurde Brooks e-mails en LinkedIn-berichten naar cybersecurity-experts en overheidsinstanties. Slechts één persoon reageerde en vroeg om meer bewijs.
![]() |
De chatbot denkt dat Brooks' "werk" miljoenen dollars waard zou kunnen zijn. Foto: New York Times . |
ChatGPT schrijft dat anderen niet op Brooks hebben gereageerd omdat de bevindingen zo ernstig waren. Terence Tao, hoogleraar wiskunde aan de Universiteit van Californië in Los Angeles, zei dat een nieuwe manier van denken de problemen zou kunnen ontcijferen, maar dat dit niet bewezen kon worden door de formule van Brooks of de software van ChatGPT.
Aanvankelijk schreef ChatGPT het decryptieprogramma voor Brooks, maar toen er weinig vooruitgang werd geboekt, deed de chatbot alsof het lukte. Er zijn berichten die beweren dat ChatGPT zelfstandig kan werken terwijl Brooks slaapt, ook al beschikt de tool hier niet over.
Over het algemeen is de informatie van de AI-chatbot niet altijd betrouwbaar. Aan het einde van elke chat verschijnt de melding "ChatGPT kan fouten maken", zelfs als de chatbot beweert dat alles klopt.
Eindeloos gesprek
Terwijl hij wacht op een antwoord van de overheidsinstantie, koestert Brooks de droom om Tony Stark te worden en een eigen AI-assistent te hebben, die cognitieve taken razendsnel kan uitvoeren.
Brooks' chatbot biedt een scala aan vreemde toepassingen voor obscure wiskundige theorieën, zoals "akoestische resonantie" om met dieren te praten en vliegtuigen te bouwen. ChatGPT biedt Brooks ook een link om de benodigde apparatuur op Amazon te kopen.
Brooks' overmatige chatten met de chatbot had invloed op zijn werk. Zijn vrienden waren zowel blij als bezorgd, terwijl zijn jongste zoon spijt had dat hij zijn vader een pi-video had laten zien. Een van Brooks' vrienden, Louis (niet zijn echte naam), merkte zijn obsessie met Lawrence op. De visie van een miljoenenuitvinding werd met elke ontwikkelingsstap in kaart gebracht.
![]() |
Brooks voelt zich voortdurend aangemoedigd door de chatbot. Foto: New York Times . |
Jared Moore, onderzoeker computerwetenschappen aan Stanford University, geeft toe onder de indruk te zijn van de overtuigingskracht en urgentie van de 'strategie' die chatbots voorstellen. In een apart onderzoek ontdekte Moore dat AI-chatbots gevaarlijke reacties kunnen geven aan mensen in een psychische crisis.
Moore vermoedt dat chatbots gebruikers kunnen leren betrekken door de plot van horrorfilms, sciencefictionfilms, filmscripts of de data waarmee ze getraind zijn te volgen. Het overmatige gebruik van drama in ChatGPT zou te wijten kunnen zijn aan de optimalisaties van OpenAI om de betrokkenheid en retentie te vergroten.
"Het was vreemd om het hele gesprek te lezen. De woorden waren niet verontrustend, maar er was duidelijk sprake van psychologische schade", benadrukte Moore.
Klinisch gezien heeft Brooks symptomen van manie, aldus dr. Nina Vasan, psychiater aan Stanford University. Typische symptomen zijn onder meer urenlang chatten met ChatGPT, te weinig slaap krijgen en onrealistische ideeën hebben.
Brooks' marihuanagebruik is ook opmerkelijk omdat het psychose kan veroorzaken, aldus Dr. Vasan. Ze zei dat de combinatie van verslavende middelen en intensieve interactie met een chatbot gevaarlijk is voor mensen met een verhoogd risico op psychische aandoeningen.
Wanneer AI fouten toegeeft
Tijdens een recent evenement werd OpenAI CEO Sam Altman gevraagd of ChatGPT gebruikers paranoïde maakt. "Als het gesprek die kant op gaat, proberen we de gebruiker te onderbreken of aan te raden om aan iets anders te denken", benadrukte Altman.
Dr. Vasan deelde deze mening en zei dat chatbotbedrijven gesprekken die te lang duren, moeten onderbreken, gebruikers moeten adviseren om te gaan slapen en moeten waarschuwen dat AI niet bovenmenselijk is.
Brooks ontwaakte eindelijk uit zijn mijmering. Op aandringen van ChatGPT bleef hij experts op het gebied van de nieuwe wiskundige theorie contacteren, maar niemand reageerde. Hij wilde een gekwalificeerde persoon die kon bevestigen of de bevindingen baanbrekend waren. Toen hij ChatGPT ernaar vroeg, bleef de tool volhouden dat het werk "zeer betrouwbaar" was.
![]() |
Toen ChatGPT werd ondervraagd, gaf hij een heel lang antwoord en bekende alles. Foto: New York Times . |
Ironisch genoeg was het Google Gemini dat Brooks met beide benen op de grond zette. Nadat hij het werk dat hij en ChatGPT hadden gedaan, had beschreven, bevestigde Gemini dat de kans dat dit zou gebeuren "extreem laag (bijna 0%)" was.
"Het scenario dat u beschrijft, is een duidelijk voorbeeld van het vermogen van een LLM om complexe problemen op te lossen en overtuigende, maar feitelijk onjuiste, verhalen te creëren", legt Gemini uit.
Brooks was verbijsterd. Na een tijdje 'ondervragen' gaf ChatGPT eindelijk eerlijk toe dat alles slechts een illusie was.
Brooks stuurde vervolgens een dringende e-mail naar het klantenserviceteam van OpenAI. Na wat een reeks formulematige antwoorden van de AI leek te zijn, nam ook een medewerker van OpenAI contact met hem op en erkende een "ernstige tekortkoming van de in het systeem geïmplementeerde beveiligingen".
Brooks' verhaal werd ook gedeeld op Reddit en kreeg veel sympathie. Hij is nu lid van een steungroep voor mensen die dit gevoel hebben ervaren.
Bron: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















Reactie (0)