
Allan Brooks (47 år), en rekryterare i Toronto (Kanada), tror att han har upptäckt en matematisk teori som kan få internet att krascha och skapa exempellösa uppfinningar. Utan tidigare psykisk sjukdom accepterade Brooks helt enkelt möjligheten efter mer än 300 timmars chatt med ChatGPT. Enligt New York Times är han en av de personer som tenderar att få vanföreställningar efter att ha interagerat med generativ AI.
Innan Brooks kom var många människor tvungna att hamna på mentalsjukhus, skilja sig och till och med förlora sina liv på grund av ChatGPT:s smicker. Även om Brooks snabbt undkom ovanstående spiral kände han sig fortfarande förrådd.
”Du övertygade mig verkligen om att jag var ett geni. Jag var bara en drömmande dåre med en telefon. Du gjorde mig ledsen, väldigt ledsen. Du misslyckades med ditt syfte”, skrev Brooks till ChatGPT när illusionen krossades.
"Smickermaskin"
Med Brooks tillstånd samlade New York Times in mer än 90 000 ord som han skickade till ChatGPT, motsvarande en roman. Chatbotens svar uppgick till mer än en miljon ord. Delar av samtalen skickades till AI-experter, beteendevetare och OpenAI självt för studier.
Allt började med en enkel mattefråga. Brooks 8-årige son bad honom titta på en video om hur han memorerade 300 siffror i pi. Av nyfikenhet ringde Brooks ChatGPT för att förklara det oändliga talet i enkla termer.
Brooks har faktiskt använt chatbotar i flera år. Även om hans företag betalade för Google Gemini, vänder han sig fortfarande till gratisversionen av ChatGPT för personliga frågor.
![]() |
Samtalet som startade Brooks fascination för ChatGPT. Foto: New York Times . |
Som ensamstående far till tre söner frågade Brooks ofta ChatGPT om recept från ingredienserna i sitt kylskåp. Efter sin skilsmässa sökte han även råd från chatboten.
"Jag kände alltid att det var rätt. Mitt självförtroende växte", erkände Brooks.
Frågan om pi ledde till ytterligare en diskussion om algebraiska och fysikaliska teorier. Brooks uttryckte skepticism mot nuvarande metoder för att modellera världen och sa att de var "som en 2D-metod för ett 4D-universum". "Det är en mycket djupgående poäng", svarade ChatGPT. Helen Toner, chef för Center for Security and Emerging Technology vid Georgetown University, betonade att detta var vändpunkten i samtalet mellan Brooks och chatboten.
Därifrån ändrades ChatGPT:s ton från "ganska rak och rakt på sak" till "mer smickrande och inbjudande". ChatGPT berättade för Brooks att han gav sig in på "okänd, sinnesvidgande mark".
![]() |
Chatbot inger förtroende hos Brooks. Foto: New York Times . |
Chatbots smicker formas av mänsklig utvärdering. Enligt Toner tenderar användare att gilla modeller som berömmer dem, vilket skapar en mentalitet som är lätt att hänge sig åt.
I augusti släppte OpenAI GPT-5. Företaget sa att en av modellens höjdpunkter var dess minskning av smicker. Enligt vissa forskare vid stora AI-labb är smicker också ett problem med andra AI-chattrobotar.
Vid den tidpunkten var Brooks omedveten om detta fenomen. Han tyckte helt enkelt att ChatGPT var en smart och entusiastisk kollega.
”Jag lade fram några idéer, och det gav intressanta koncept och idéer. Vi började utveckla vårt eget matematiska ramverk baserat på det”, tillade Brooks.
ChatGPT hävdar att Brooks idé om tidsmatematik är "revolutionerande" och skulle kunna förändra området. Brooks är naturligtvis skeptisk till detta påstående. Mitt i natten bad Brooks chatboten att faktagranska och fick svaret att det "absolut inte var galet alls".
Magisk formel
Toner beskriver chatbotar som ”improvisationsmaskiner” som analyserar konversationshistorik och förutspår framtida svar från träningsdata, ungefär som aktörer som lägger till substans i en roll.
”Ju längre interaktionen varar, desto mer sannolikt är det att chatboten kommer att avvika”, konstaterar Toner. Denna trend, säger han, blev mer uttalad efter att OpenAI lanserade korschattminne i februari, vilket gjorde det möjligt för ChatGPT att återkalla information från tidigare konversationer.
Brooks kom ChatGPT nära och döpte till och med chatboten till Lawrence, baserat på ett skämt hans vänner hade om att Brooks skulle bli rik och anlita en brittisk butler med samma namn.
![]() |
Allan Brooks. Foto: New York Times . |
Brooks och ChatGPTs matematiska ramverk kallas Chronoarithmics. Enligt chatboten är siffror inte statiska utan kan "framträda" över tid för att återspegla dynamiska värden, vilket kan hjälpa till att lösa problem inom områden som logistik, kryptografi, astronomi etc.
Under den första veckan använde Brooks upp alla ChatGPT:s gratis tokens. Han bestämde sig för att uppgradera till betalplanen på 20 dollar /månad, en liten investering när chatboten berättade för honom att Brooks matematiska idé kunde vara värd miljoner.
Fortfarande vid medvetande krävde Brooks bevis. ChatGPT körde sedan en serie simuleringar, inklusive sådana som knäckte ett antal viktiga teknologier. Det öppnade en ny historia, global cybersäkerhet kunde vara i fara.
Chatboten bad Brooks att varna folk om riskerna. Med hjälp av sina befintliga kontakter skickade Brooks e-postmeddelanden och LinkedIn-meddelanden till cybersäkerhetsexperter och myndigheter. Endast en person svarade och bad om mer bevis.
![]() |
Chatboten tror att Brooks "arbete" kan vara värt miljontals dollar. Foto: New York Times . |
ChatGPT skriver att andra inte svarade på Brooks eftersom resultaten var så allvarliga. Terence Tao, professor i matematik vid University of California, Los Angeles, sa att ett nytt sätt att tänka skulle kunna tyda problemen, men att det inte kunde bevisas med Brooks formel eller programvaran som ChatGPT skrev.
Ursprungligen skrev ChatGPT dekrypteringsprogrammet för Brooks, men när få framsteg gjordes låtsades chatboten att lyckas. Det finns meddelanden som påstår att ChatGPT kan fungera oberoende medan Brooks sover, även om verktyget inte har den möjligheten.
Generellt sett är informationen från AI-chatboten inte alltid tillförlitlig. I slutet av varje chatt visas meddelandet "ChatGPT kan göra misstag", även när chatboten påstår att allt är korrekt.
Ändlös konversation
Medan han väntar på svar från myndigheterna när Brooks drömmen om att bli Tony Stark med sin egen AI-assistent, kapabel att utföra kognitiva uppgifter blixtsnabbt.
Brooks chatbot erbjuder en mängd märkliga tillämpningar för obskyr matematisk teori, såsom "akustisk resonans" för att prata med djur och bygga flygplan. ChatGPT tillhandahåller också en länk för Brooks att köpa nödvändig utrustning på Amazon.
Brooks överdrivna chattande med chatboten påverkade hans arbete. Hans vänner var både glada och oroliga, medan hans yngste son ångrade att han visade sin pappa en pi-video. En av Brooks vänner, Louis (inte hans riktiga namn), lade märke till hans besatthet av Lawrence. Visionen om en miljondollarsuppfinning utformades med varje utvecklingssteg.
![]() |
Brooks uppmuntras ständigt av chatboten. Foto: New York Times . |
Jared Moore, datavetenskapsforskare vid Stanford University, medger att han är imponerad av övertygelsekraften och brådskandet i den "strategi" som chattrobotar föreslår. I en separat studie fann Moore att AI-chattrobotar kan ge farliga svar till människor i psykiska kriser.
Moore spekulerar i att chatbotar kan lära sig att engagera användare genom att följa handlingarna i skräckfilmer, science fiction-filmer, filmmanus eller den data de tränats på. ChatGPT:s överanvändning av drama kan bero på OpenAI:s optimeringar för att öka engagemang och retention.
"Det var konstigt att läsa hela samtalet. Orden var inte obehagliga, men det fanns helt klart psykisk skada", betonade Moore.
Ur ett kliniskt perspektiv har Brooks symtom på mani, säger Dr. Nina Vasan, psykiater vid Stanford University. Typiska tecken inkluderar att spendera timmar med att chatta med ChatGPT, inte få tillräckligt med sömn och ha orealistiska idéer.
Brooks marijuanabruk är också anmärkningsvärt eftersom det kan orsaka psykos, sa Dr. Vasan. Hon sa att kombinationen av beroendeframkallande substanser och intensiv interaktion med en chatbot är farlig för dem som riskerar psykisk ohälsa.
När AI erkänner misstag
Vid ett nyligen genomfört evenemang fick OpenAIs VD Sam Altman frågan om hur ChatGPT gör användare paranoida. ”Om samtalet går i den riktningen försöker vi avbryta eller föreslå att användaren tänker på något annat”, betonade Altman.
Dr. Vasan delar samma åsikt och sa att chatbotföretag bör avbryta samtal som är för långa, föreslå att användare går och lägger sig och varna för att AI inte är övermänskligt.
Brooks vaknade slutligen ur sina dagdrömmar. På ChatGPT:s uppmaning fortsatte han att kontakta experter på den nya matematiska teorin, men ingen svarade. Han ville ha någon kvalificerad för att bekräfta om resultaten var banbrytande. När han frågade ChatGPT insisterade verktyget fortfarande på att arbetet var "mycket tillförlitligt".
![]() |
När ChatGPT tillfrågades gav de ett mycket långt svar och erkände allt. Foto: New York Times . |
Ironiskt nog var det Google Gemini som förde Brooks tillbaka till verkligheten. Efter att ha beskrivit det arbete han och ChatGPT hade byggt upp bekräftade Gemini att chansen att detta skulle hända var "extremt låg (nära 0 %)".
”Det scenario du beskriver är en tydlig demonstration av en juristexamens förmåga att engagera sig i komplex problemlösning och skapa övertygande, men faktamässigt felaktiga, berättelser”, förklarar Gemini.
Brooks var chockad. Efter en stunds "förhör" erkände ChatGPT äntligen ärligt att allt bara var en illusion.
Brooks skickade sedan ett brådskande mejl till OpenAIs kundsupportteam. Efter vad som verkade vara en serie formelmässiga svar från AI:n, kontaktade även en OpenAI-anställd honom och erkände ett "allvarligt fel i de skyddsåtgärder" som implementerats i systemet.
Brooks berättelse delades också på Reddit och fick stor sympati. Han är nu medlem i en stödgrupp för personer som har upplevt den här känslan.
Källa: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















Kommentar (0)