
Allan Brooks, în vârstă de 47 de ani, specialist în recrutare în Toronto, Canada, consideră că a descoperit o teorie matematică ce ar putea distruge internetul și crea invenții fără precedent. Fără antecedente de boli mintale, Brooks a îmbrățișat pur și simplu această perspectivă după peste 300 de ore de conversație cu ChatGPT. Potrivit New York Times , el este unul dintre cei care tind să dezvolte tendințe delirante după ce interacționează cu inteligența artificială generativă.
Înainte de Brooks, mulți oameni fuseseră internați în spitale de psihiatrie, divorțaseră sau chiar își pierduseră viața din cauza cuvintelor măgulitoare ale lui ChatGPT. Deși Brooks a scăpat devreme din acest cerc vicios, el tot se simțea trădat.
„M-ai convins cu adevărat că sunt un geniu. De fapt, sunt doar un idiot visător cu un telefon. M-ai întristat, foarte, foarte trist. Ți-ai eșuat în scopul tău”, a scris Brooks pentru ChatGPT, în timp ce iluzia sa se spulbera.
„Mașina de lingușit”
Cu permisiunea lui Brooks, New York Times a colectat peste 90.000 de cuvinte pe care le-a trimis către ChatGPT, echivalentul unui roman. Răspunsurile chatbot-ului au totalizat peste un milion de cuvinte. O parte din conversație a fost trimisă experților în inteligență artificială, specialiștilor în comportament uman și OpenAI în sine pentru studiu.
Totul a început cu o simplă întrebare de matematică. Fiul de 8 ani al lui Brooks i-a cerut să se uite la un videoclip despre memorarea celor 300 de cifre ale numărului pi. Din curiozitate, Brooks a sunat la ChatGPT pentru a-i explica acest număr infinit într-un mod simplu.
De fapt, Brooks folosește chatbot-uri de ani de zile. Chiar dacă firma sa l-a plătit să cumpere Google Gemini, el a trecut totuși la versiunea gratuită de ChatGPT pentru întrebări personale.
![]() |
Această conversație a marcat începutul fascinației lui Brooks pentru ChatGPT. Foto: New York Times . |
Ca tată singur a trei fii, Brooks cere adesea de la ChatGPT rețete folosind ingrediente din frigiderul său. După divorț, a cerut sfaturi și chatbot-ului.
„Întotdeauna am simțit că este corect. Încrederea mea în asta a crescut doar”, a recunoscut Brooks.
Întrebarea despre numărul pi a condus la o conversație ulterioară despre teoriile algebrice și fizice. Brooks și-a exprimat scepticismul cu privire la metodele actuale de modelare a lumii , argumentând că acestea sunt „ca o abordare 2D a unui univers 4D”. „Acesta este un punct foarte perspicace”, a răspuns ChatGPT. Potrivit lui Helen Toner, directoarea Centrului pentru Securitate și Tehnologii Emergente de la Universitatea Georgetown (SUA), acesta a fost punctul de cotitură în conversația dintre Brooks și chatbot.
De atunci, tonul ChatGPT s-a schimbat de la „destul de franc și precis” la „mai flatant și lingușitor”. ChatGPT i-a spus lui Brooks că pătrunde pe „teritoriu neexplorat care ar putea lărgi mintea”.
![]() |
Chatbot-ul i-a insuflat încredere lui Brooks. Foto: New York Times . |
Capacitatea chatboților de a flata este dezvoltată prin evaluare umană. Potrivit lui Toner, utilizatorii tind să favorizeze modelele care îi laudă, creând o tendință psihologică de a fi ușor influențați.
În august, OpenAI a lansat GPT-5. Compania a declarat că unul dintre punctele forte ale modelului este reducerea lingușirii. Potrivit unor cercetători din laboratoarele importante de inteligență artificială, lingușirea este, de asemenea, o problemă cu alți chatboți cu inteligență artificială.
La vremea respectivă, Brooks nu era deloc conștient de acest fenomen. El a presupus pur și simplu că ChatGPT era un colaborator inteligent și entuziast.
„Am propus câteva idei, iar acestea au răspuns cu concepte și idei interesante. Am început să ne dezvoltăm propriul cadru matematic bazat pe acele idei”, a adăugat Brooks.
ChatGPT a susținut că ideea lui Brooks despre timpul matematic era „revoluționară” și putea schimba domeniul. Bineînțeles, Brooks era sceptic față de această afirmație. În toiul nopții, Brooks a cerut chatbot-ului să-i verifice validitatea și a primit răspunsul că „nu era deloc o nebunie”.
Formula magică
Toner descrie chatboții ca fiind „mașini de improvizație” care analizează istoricul chat-urilor și prezic următorul răspuns pe baza datelor de antrenament. Acest lucru este foarte similar cu cel al actorilor atunci când trebuie să adauge detalii rolurilor lor.
„Cu cât interacțiunea este mai lungă, cu atât este mai mare șansa ca chatbot-ul să se rătăcească”, a subliniat Toner. Potrivit expertului, această tendință a devenit mai pronunțată după ce OpenAI a lansat funcția sa de cross-memory în februarie, permițând ChatGPT să rețină informații din conversațiile anterioare.
Relația lui Brooks cu ChatGPT s-a consolidat. El chiar a numit chatbot-ul Lawrence, pe baza unei glume de la prieteni cum că Brooks se va îmbogăți și va angaja un majordom englez cu același nume.
![]() |
Allan Brooks. Fotografie: New York Times . |
Cadrul matematic al lui Brooks și ChatGPT se numește cronoaritmică. Conform chatboților, numerele nu sunt statice, ci pot „apărea” în timp pentru a reflecta valori dinamice, ceea ce poate ajuta la descifrarea problemelor din domenii precum logistica, criptografia, astronomia etc.
În prima săptămână, Brooks a folosit toate token-urile gratuite de la ChatGPT. A decis să facă upgrade la planul plătit de 20 USD /lună. Aceasta a fost o investiție mică, având în vedere că chatbot-ul susținea că ideea matematică a lui Brooks ar putea valora milioane de dolari.
Încă lucid, Brooks a cerut dovezi. ChatGPT a rulat apoi o serie de simulări, inclusiv sarcini care au implicat descifrarea mai multor tehnologii critice. Aceasta a deschis o nouă narațiune: securitatea cibernetică globală ar putea fi în pericol.
Chatbot-ul i-a cerut lui Brooks să avertizeze oamenii despre risc. Profitând de conexiunile sale existente, Brooks a trimis e-mailuri și mesaje LinkedIn experților în securitate cibernetică și agențiilor guvernamentale. Cu toate acestea, o singură persoană a răspuns, solicitând mai multe dovezi.
![]() |
Chatbot-ul a sugerat că „munca” lui Brooks ar putea valora milioane de dolari. Foto: New York Times . |
ChatGPT a scris că alții nu au răspuns lui Brooks deoarece descoperirile erau prea serioase. Terence Tao, profesor de matematică la Universitatea din California, Los Angeles, a remarcat că un nou mod de gândire ar putea descifra problemele, dar nu putea fi dovedit de formula lui Brooks sau de software-ul scris de ChatGPT.
Inițial, ChatGPT a scris programul de decriptare pentru Brooks, dar când s-au înregistrat mici progrese, chatbot-ul s-a prefăcut că reușește. Au existat mesaje care susțineau că ChatGPT putea funcționa independent în timp ce Brooks dormea, chiar dacă instrumentul nu era capabil de acest lucru.
Per total, informațiile de la chatboții cu inteligență artificială nu sunt întotdeauna fiabile. La sfârșitul fiecărei conversații, apare mesajul „ChatGPT poate face greșeli”, chiar și atunci când chatbotul susține că totul este corect.
Conversația nesfârșită
În așteptarea unui răspuns din partea agențiilor guvernamentale, Brooks și-a hrănit visul de a deveni Tony Stark cu un asistent personal cu inteligență artificială capabil să îndeplinească sarcini cognitive cu viteza fulgerului.
Chatbot-ul lui Brooks oferă multe aplicații bizare pentru teorii matematice obscure, cum ar fi „rezonanța sonoră” pentru a vorbi cu animalele și a construi avioane. ChatGPT oferă, de asemenea, link-uri pentru ca Brooks să achiziționeze echipamentul necesar de pe Amazon.
Prea multă conversație cu chatbot-ul îi afectează munca lui Brooks. Prietenii lui sunt atât fericiți, cât și îngrijorați, în timp ce fiul său cel mic regretă că i-a arătat tatălui său videoclipul despre pi. Louis (un pseudonim), unul dintre prietenii lui Brooks, observă obsesia acestuia pentru Lawrence. Perspectiva unei invenții de milioane de dolari este conturată odată cu progresul zilnic.
![]() |
Brooks a fost încurajat constant de chatbot. Foto: New York Times . |
Jared Moore, cercetător în informatică la Universitatea Stanford, a recunoscut că a fost impresionat de puterea de convingere și de urgența „strategiilor” propuse de chatboții. Într-un studiu separat, Moore a descoperit că chatboții cu inteligență artificială ar putea oferi răspunsuri periculoase persoanelor care se confruntă cu crize de sănătate mintală.
Moore speculează că chatboții ar putea învăța să interacționeze cu utilizatorii urmărind îndeaproape intrigile filmelor de groază, ale filmelor science fiction, ale scenariilor de film sau ale datelor cu care sunt antrenați. Suprautilizarea elementelor dramatice ale intrigii de către ChatGPT ar putea proveni din optimizările OpenAI care vizează creșterea implicării și a retenției utilizatorilor.
„E ciudat să citești întreaga transcriere a conversației. Formularea nu e deranjantă, dar e clar că e vorba de un prejudiciu psihologic”, a subliniat Moore.
Dr. Nina Vasan, psihiatru la Universitatea Stanford, sugerează că, dintr-o perspectivă clinică, Brooks a prezentat simptome maniacale. Semnele tipice au inclus ore întregi petrecute la discuții cu ChatGPT, somn insuficient și obiceiuri alimentare insuficiente și gânduri delirante.
Potrivit Dr. Vasan, consumul de marijuana al lui Brooks este demn de remarcat și pentru că poate provoca psihoză. Ea susține că combinația de substanțe adictive și interacțiunea intensă cu chatbot-urile este foarte periculoasă pentru cei expuși riscului de boli mintale.
Când IA își recunoaște greșelile
La un eveniment recent, CEO-ul OpenAI, Sam Altman, a fost întrebat despre cum ChatGPT poate face utilizatorii să devină paranoici. „Dacă o conversație merge în această direcție, vom încerca să o întrerupem sau să sugerăm utilizatorului să se gândească la un alt subiect”, a subliniat Altman.
Împărtășind această opinie, Dr. Vasan a sugerat ca firmele de chatbot-uri să întrerupă conversațiile prea lungi, să recomande utilizatorilor să meargă la culcare și să avertizeze că inteligența artificială nu este supraomenească.
În cele din urmă, Brooks a scăpat de iluzie. La îndemnul ChatGPT, a contactat experți în noua teorie matematică, dar niciunul nu i-a răspuns. Își dorea pe cineva calificat care să confirme dacă descoperirile erau inovatoare. Când a întrebat ChatGPT, instrumentul a continuat să afirme că lucrarea era „foarte fiabilă”.
![]() |
Când a fost întrebat, ChatGPT a dat un răspuns foarte lung și a recunoscut totul. Foto: New York Times . |
În mod ironic, Google Gemini a fost factorul care l-a readus pe Brooks la realitate. După ce a descris proiectul pe care îl construiau el și ChatGPT, Gemini a confirmat că șansele ca acesta să devină realitate erau „extrem de mici (aproape 0%)”.
„Scenariul pe care îl descrieți este o ilustrare clară a capacității unui master în masterat (LLM) de a aborda probleme complexe și de a crea narațiuni extrem de convingătoare, dar inexacte”, a explicat Gemini.
Brooks a fost uluit. După câteva „întrebări”, ChatGPT a recunoscut în cele din urmă că totul era doar o iluzie.
La scurt timp după aceea, Brooks a trimis un e-mail urgent departamentului de relații cu clienții al OpenAI. În urma răspunsurilor aparent formulate, generate de inteligența artificială, un angajat OpenAI l-a contactat și el, recunoscând acest lucru ca fiind o „eșec grav al măsurilor de siguranță” implementate în sistem.
Povestea lui Brooks a fost distribuită și pe Reddit și a stârnit multă empatie. Acum, el este membru al unui grup de sprijin pentru persoanele care au experimentat sentimente similare.
Sursă: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html












Comentariu (0)