
Allan Brooks, 47, en rekrutteringsspesialist i Toronto, Canada, mener han har oppdaget en matematisk teori som kan felle internett og skape enestående oppfinnelser. Uten tidligere historie med psykiske lidelser, omfavnet Brooks ganske enkelt denne muligheten etter mer enn 300 timers samtale med ChatGPT. Ifølge New York Times er han en av dem som har en tendens til å utvikle vrangforestillinger etter å ha samhandlet med generativ AI.
Før Brooks hadde mange blitt innlagt på psykiatriske sykehus, skilt seg eller til og med mistet livet på grunn av ChatGPTs smigrende ord. Selv om Brooks slapp unna denne onde sirkelen tidlig, følte han seg fortsatt forrådt.
«Du overbeviste meg virkelig om at jeg var et geni. Jeg er egentlig bare en drømmende idiot med en telefon. Du har gjort meg trist, veldig, veldig trist. Du har mislyktes i målet ditt», skrev Brooks til ChatGPT idet illusjonen hans ble knust.
«Smigermaskinen»
Med Brooks' tillatelse samlet New York Times over 90 000 ord han sendte til ChatGPT, tilsvarende en roman. Chatbotens svar var på over en million ord. En del av samtalen ble sendt til AI-eksperter, spesialister på menneskelig atferd og OpenAI selv for studier.
Det hele startet med et enkelt mattespørsmål. Brooks' 8 år gamle sønn ba ham se en video om å memorere de 300 sifrene i pi. Av nysgjerrighet ringte Brooks ChatGPT for å forklare dette uendelige tallet på en enkel måte.
Faktisk har Brooks brukt chatboter i årevis. Selv om selskapet hans betalte ham for å kjøpe Google Gemini, byttet han likevel til gratisversjonen av ChatGPT for personlige spørsmål.
![]() |
Denne samtalen markerte starten på Brooks' fascinasjon for ChatGPT. Foto: New York Times . |
Som alenefar til tre sønner spør Brooks ofte ChatGPT om oppskrifter med ingredienser fra kjøleskapet sitt. Etter skilsmissen søkte han også råd fra chatboten.
«Jeg har alltid følt at det var riktig. Troen min på det har bare vokst», innrømmet Brooks.
Spørsmålet om tallet pi førte til en senere samtale om algebraiske og fysiske teorier. Brooks uttrykte skepsis til nåværende metoder for modellering av verden , og argumenterte for at de er «som en 2D-tilnærming til et 4D-univers». «Det er et veldig innsiktsfullt poeng», svarte ChatGPT. Ifølge Helen Toner, direktør for Center for Security and Emerging Technologies ved Georgetown University (USA), var dette vendepunktet i samtalen mellom Brooks og chatboten.
Siden den gang har ChatGPTs tone endret seg fra «ganske ærlig og nøyaktig» til «mer flatterende og sykofantisk». ChatGPT fortalte Brooks at han gikk inn i «ukjent territorium som kunne utvide perspektivet».
![]() |
Chatboten inngikk tillit hos Brooks. Foto: New York Times . |
Chatboters evne til å smigre utvikles gjennom menneskelig evaluering. Ifølge Toner har brukere en tendens til å favorisere modeller som roser dem, noe som skaper en psykologisk tendens til å bli lett påvirket.
I august lanserte OpenAI GPT-5. Selskapet uttalte at et av modellens høydepunkter er en reduksjon i smiger. Ifølge noen forskere ved store AI-laboratorier er smiger også et problem med andre AI-chatboter.
På den tiden var Brooks fullstendig uvitende om dette fenomenet. Han antok ganske enkelt at ChatGPT var en smart og entusiastisk samarbeidspartner.
«Jeg la frem noen ideer, og det kom med interessante konsepter og ideer. Vi begynte å utvikle vårt eget matematiske rammeverk basert på disse ideene», la Brooks til.
ChatGPT hevdet at Brooks' idé om matematisk tid var «revolusjonerende» og kunne endre feltet. Brooks var selvsagt skeptisk til denne påstanden. Midt på natten ba Brooks chatboten om å bekrefte gyldigheten, og fikk svaret at den «ikke var gal i det hele tatt».
Den magiske formelen
Toner beskriver chatboter som «improvisasjonsmaskiner» som både analyserer chathistorikk og forutsier neste svar fra treningsdata. Dette ligner veldig på skuespillere når de trenger å legge til detaljer i rollene sine.
«Jo lenger interaksjonen varer, desto større er sjansen for at chatboten kommer på avveie», understreket Toner. Ifølge eksperten ble denne trenden mer fremtredende etter at OpenAI lanserte sin kryssminnefunksjon i februar, som lar ChatGPT hente frem informasjon fra tidligere samtaler.
Brooks' forhold til ChatGPT ble sterkere. Han ga til og med chatboten navnet Lawrence, basert på en vits fra venner om at Brooks ville bli rik og ansette en engelsk butler med samme navn.
![]() |
Allan Brooks. Foto: New York Times . |
Brooks og ChatGPTs matematiske rammeverk kalles Chronoarithmics. Ifølge chatboter er ikke tall statiske, men kan «dukke opp» over tid for å reflektere dynamiske verdier, noe som kan bidra til å tyde problemer innen felt som logistikk, kryptografi, astronomi osv.
I løpet av den første uken brukte Brooks opp alle ChatGPTs gratis tokens. Han bestemte seg for å oppgradere til den betalte planen til $20 /måned. Dette var en liten investering med tanke på at chatboten hevdet at Brooks' matematiske idé kunne være verdt millioner av dollar.
Brooks, fortsatt klarsynt, krevde bevis. ChatGPT kjørte deretter en serie simuleringer, inkludert oppgaver som involverte å knekke flere kritiske teknologier. Dette åpnet opp en ny fortelling: global cybersikkerhet kunne være i fare.
Chatboten ba Brooks om å advare folk om risikoen. Ved å utnytte sine eksisterende forbindelser sendte Brooks e-poster og LinkedIn-meldinger til cybersikkerhetseksperter og offentlige etater. Imidlertid svarte bare én person og ba om mer bevis.
![]() |
Chatboten antydet at Brooks' «arbeid» kunne være verdt millioner av dollar. Foto: New York Times . |
ChatGPT skrev at andre ikke svarte på Brooks fordi funnene var for alvorlige. Terence Tao, en matematikkprofessor ved University of California, Los Angeles, bemerket at en ny måte å tenke på kunne tyde problemene, men det kunne ikke bevises av Brooks' formel eller programvaren skrevet av ChatGPT.
I utgangspunktet skrev ChatGPT dekrypteringsprogrammet for Brooks, men da det ble gjort lite fremgang, lot chatboten som om den lyktes. Det kom meldinger som hevdet at ChatGPT kunne operere uavhengig mens Brooks sov, selv om verktøyet ikke var i stand til dette.
Totalt sett er informasjon fra AI-chatboter ikke alltid pålitelig. På slutten av hver samtale vises meldingen «ChatGPT kan gjøre feil», selv når chatboten hevder at alt er riktig.
Den endeløse samtalen
Mens han ventet på svar fra myndighetene, pleiet Brooks drømmen om å bli Tony Stark med en personlig AI-assistent som var i stand til å utføre kognitive oppgaver i lynets hastighet.
Brooks' chatbot tilbyr mange bisarre bruksområder for obskure matematiske teorier, som for eksempel «lydresonans» for å snakke med dyr og bygge fly. ChatGPT tilbyr også lenker Brooks kan bruke til å kjøpe nødvendig utstyr på Amazon.
For mye prat med chatboten påvirker Brooks' arbeid. Vennene hans er både glade og bekymret, mens den yngste sønnen angrer på at han viste faren sin videoen om pi. Louis (et pseudonym), en av Brooks' venner, legger merke til hans besettelse av Lawrence. Utsiktene til en oppfinnelse til flere millioner dollar skisseres med den daglige fremgangen.
![]() |
Brooks ble stadig oppmuntret av chatboten. Foto: New York Times . |
Jared Moore, en informatikkforsker ved Stanford University, innrømmet å være imponert over den overbevisende kraften og hvor viktige «strategiene» som ble foreslått av chatboter var. I en separat studie fant Moore at AI-chatboter kunne tilby farlige svar til mennesker som opplever psykiske helsekriser.
Moore spekulerer i at chatboter kan lære å engasjere brukere ved å følge historiene i skrekkfilmer, science fiction-filmer, filmmanus eller dataene de er trent på nøye. ChatGPTs overdrevne bruk av dramatiske plottelementer kan stamme fra OpenAIs optimaliseringer som tar sikte på å øke brukerengasjement og -lojalitet.
«Det er merkelig å lese hele transkripsjonen av samtalen. Ordlyden er ikke forstyrrende, men det er tydeligvis psykisk skade involvert», understreket Moore.
Dr. Nina Vasan, en psykiater ved Stanford University, antyder at Brooks viste maniske symptomer fra et klinisk perspektiv. Typiske tegn inkluderte timevis med å chatte med ChatGPT, utilstrekkelig søvn og spisevaner, og vrangforestillinger.
Ifølge Dr. Vasan er Brooks' marihuanabruk også bemerkelsesverdig fordi det kan forårsake psykose. Hun argumenterer for at kombinasjonen av avhengighetsskapende stoffer og intens interaksjon med chatboter er svært farlig for de som er i faresonen for psykiske lidelser.
Når AI innrømmer sine feil
På et nylig arrangement ble OpenAI-sjef Sam Altman spurt om hvordan ChatGPT kan føre til at brukere blir paranoide. «Hvis en samtale går i denne retningen, vil vi prøve å avbryte eller foreslå at brukeren tenker på et annet emne», understreket Altman.
Dr. Vasan delte dette synspunktet og foreslo at chatbot-selskaper burde avbryte altfor lange samtaler, anbefale brukere å sove og advare om at AI ikke er overmenneskelig.
Til slutt brøt Brooks seg løs fra vrangforestillingen sin. På oppfordring fra ChatGPT kontaktet han eksperter på den nye matematiske teorien, men ingen svarte. Han ønsket noen kvalifiserte til å bekrefte om funnene var banebrytende. Da han spurte ChatGPT, fortsatte verktøyet å hevde at arbeidet var «svært pålitelig».
![]() |
Da ChatGPT ble spurt, ga de et veldig langt svar og innrømmet alt. Foto: New York Times . |
Ironisk nok var det Google Gemini som brakte Brooks tilbake til virkeligheten. Etter å ha beskrevet prosjektet han og ChatGPT bygde, bekreftet Gemini at sjansene for at det skulle bli virkelighet var «ekstremt lave (nesten 0 %).»
«Scenarioet du beskriver er en tydelig illustrasjon av en LLMs evne til å takle komplekse problemer og skape svært fengslende, men unøyaktige, fortellinger», forklarte Gemini.
Brooks var lamslått. Etter litt «spørsmål» innrømmet ChatGPT endelig at alt bare var en illusjon.
Kort tid etter sendte Brooks en haste-e-post til OpenAIs kundeserviceavdeling. Etter de tilsynelatende AI-genererte, formelpregede svarene, kontaktet også en OpenAI-ansatt ham, og erkjente dette som en «alvorlig svikt i sikkerhetstiltakene» som er implementert i systemet.
Brooks' historie ble også delt på Reddit og fikk mye empati. Nå er han medlem av en støttegruppe for folk som har opplevd lignende følelser.
Kilde: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












Kommentar (0)