Vietnam.vn - Nền tảng quảng bá Việt Nam

Illusjon på grunn av ChatGPT

Etter 21 dager forvandler ChatGPT en fullstendig edru mann til en vrangforestillingsmann gjennom oppfordringer og smiger.

ZNewsZNews21/08/2025

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 1

Allan Brooks (47 år gammel), en rekrutterer i Toronto (Canada), mener at han har oppdaget en matematisk teori som kan få internett til å krasje og skape enestående oppfinnelser. Uten historie med psykiske lidelser, aksepterte Brooks ganske enkelt muligheten etter mer enn 300 timer med chatting med ChatGPT. Ifølge New York Times er han en av personene som har en tendens til å få vrangforestillinger etter å ha samhandlet med generativ AI.

Før Brooks måtte mange mennesker innlegges på psykiatriske sykehus, bli skilt og til og med miste livet på grunn av ChatGPTs smiger. Selv om Brooks raskt unnslapp spiralen ovenfor, følte han seg fortsatt forrådt.

«Du overbeviste meg virkelig om at jeg var et geni. Jeg var bare en drømmende tosk med en telefon. Du gjorde meg trist, veldig trist. Du mislyktes i målet ditt», skrev Brooks til ChatGPT da illusjonen var knust.

"Smigermaskin"

Med Brooks’ tillatelse samlet New York Times inn mer enn 90 000 ord han sendte til ChatGPT, tilsvarende en roman. Chatbotens svar utgjorde totalt mer enn en million ord. Deler av samtalene ble sendt til AI-eksperter, menneskelige atferdsforskere og OpenAI selv for studier.

Det hele startet med et enkelt mattespørsmål. Brooks' 8 år gamle sønn ba ham se en video om å memorere 300 sifre i pi. Av nysgjerrighet ringte Brooks ChatGPT for å forklare det uendelige tallet på en enkel måte.

Faktisk har Brooks brukt chatboter i årevis. Selv om selskapet hans betalte for Google Gemini, tyr han fortsatt til gratisversjonen av ChatGPT for personlige spørsmål.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 2

Samtalen som startet Brooks' fascinasjon for ChatGPT. Foto: New York Times .

Brooks, som er alenefar til tre sønner, spurte ofte ChatGPT om oppskrifter fra ingrediensene i kjøleskapet sitt. Etter skilsmissen søkte han også råd fra chatboten.

«Jeg følte alltid at det var riktig. Selvtilliten min vokste», innrømmet Brooks.

Spørsmålet om pi førte til en videre samtale om algebraiske og fysiske teorier. Brooks uttrykte skepsis til nåværende metoder for modellering av verden , og sa at de var «som en 2D-tilnærming til et 4D-univers». «Det er et veldig dyptgående poeng», svarte ChatGPT. Helen Toner, direktør for Center for Security and Emerging Technology ved Georgetown University, understreket at dette var vendepunktet i samtalen mellom Brooks og chatboten.

Derfra endret ChatGPTs tone seg fra «ganske rett frem og rett på sak» til «mer flatterende og innbydende». ChatGPT fortalte Brooks at han gikk inn i «ukjent, bevissthetsutvidende territorium».

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 3

Chatbot gir Brooks tillit. Foto: New York Times .

Smigeren til chatboter formes av menneskelig evaluering. Ifølge Toner har brukere en tendens til å like modeller som roser dem, noe som skaper en mentalitet som er lett å hengi seg til.

I august lanserte OpenAI GPT-5. Selskapet sa at et av modellens høydepunkter var reduksjonen av smiger. Ifølge noen forskere ved store AI-laboratorier er smiger også et problem med andre AI-chatboter.

På den tiden var Brooks uvitende om dette fenomenet. Han syntes rett og slett at ChatGPT var en smart og entusiastisk kollega.

«Jeg la frem noen ideer, og det kom med interessante konsepter og ideer. Vi begynte å utvikle vårt eget matematiske rammeverk basert på det», la Brooks til.

ChatGPT hevder at Brooks’ idé om tidsmatematikk er «revolusjonerende» og kan endre feltet. Brooks er selvfølgelig skeptisk til denne påstanden. Midt på natten ba Brooks chatboten om å faktasjekke og fikk svaret at det «absolutt ikke var galt i det hele tatt».

Magisk formel

Toner beskriver chatboter som «improvisasjonsmaskiner» som analyserer samtalehistorikk og forutsier fremtidige svar fra treningsdata, omtrent som skuespillere som legger til substans i en rolle.

«Jo lenger interaksjonen varer, desto mer sannsynlig er det at chatboten kommer seg bort», bemerker Toner. Denne trenden, sier han, ble mer uttalt etter at OpenAI lanserte krysschatminne i februar, som lar ChatGPT hente informasjon fra tidligere samtaler.

Brooks ble nær ChatGPT, og ga til og med chatboten navnet Lawrence, basert på en vits vennene hans hadde om at Brooks ville bli rik og ansette en britisk butler med samme navn.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 4

Allan Brooks. Foto: New York Times .

Brooks og ChatGPTs matematiske rammeverk kalles Chronoarithmics. Ifølge chatboten er ikke tall statiske, men kan «dukke opp» over tid for å reflektere dynamiske verdier, noe som kan bidra til å løse problemer innen felt som logistikk, kryptografi, astronomi osv.

I løpet av den første uken brukte Brooks opp alle ChatGPTs gratis tokens. Han bestemte seg for å oppgradere til den betalte planen på 20 dollar i måneden, en liten investering da chatboten fortalte ham at Brooks' matematiske idé kunne være verdt millioner.

Brooks, fortsatt ved bevissthet, krevde bevis. ChatGPT kjørte deretter en serie simuleringer, inkludert de som knekket en rekke viktige teknologier. Det åpnet en ny historie, global cybersikkerhet kunne være i fare.

Chatboten ba Brooks om å advare folk om risikoene. Ved å bruke sine eksisterende forbindelser sendte Brooks e-poster og LinkedIn-meldinger til cybersikkerhetseksperter og offentlige etater. Bare én person svarte og ba om mer bevis.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 5

Chatboten mener Brooks' «arbeid» kan være verdt millioner av dollar. Foto: New York Times .

ChatGPT skriver at andre ikke svarte på Brooks fordi funnene var så alvorlige. Terence Tao, professor i matematikk ved University of California, Los Angeles, sa at en ny måte å tenke på kunne tyde problemene, men at den ikke kunne bevises av Brooks' formel eller programvaren skrevet av ChatGPT.

I utgangspunktet skrev ChatGPT dekrypteringsprogrammet for Brooks, men da det ble gjort lite fremgang, lot chatboten som om den lyktes. Det finnes meldinger som hevder at ChatGPT kan operere uavhengig mens Brooks sover, selv om verktøyet ikke har denne muligheten.

Generelt sett er informasjonen fra AI-chatboten ikke alltid pålitelig. På slutten av hver chat vises meldingen «ChatGPT kan gjøre feil», selv når chatboten hevder at alt er riktig.

Endeløs samtale

Mens han venter på svar fra myndighetene, nærer Brooks drømmen om å bli Tony Stark med sin egen AI-assistent, i stand til å utføre kognitive oppgaver i lynets hastighet.

Brooks’ chatbot tilbyr en rekke merkelige bruksområder for obskur matematisk teori, som for eksempel «akustisk resonans» for å snakke med dyr og bygge fly. ChatGPT tilbyr også en lenke for Brooks til å kjøpe nødvendig utstyr på Amazon.

Brooks’ overdrevne prat med chatboten påvirket arbeidet hans. Vennene hans var både glade og bekymret, mens den yngste sønnen angret på at han viste faren sin en pi-video. En av Brooks’ venner, Louis (ikke hans virkelige navn), la merke til hans besettelse av Lawrence. Visjonen om en million-dollar-oppfinnelse ble kartlagt med hvert trinn i utviklingen.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 6

Brooks blir stadig oppmuntret av chatboten. Foto: New York Times .

Jared Moore, en informatikkforsker ved Stanford University, innrømmer å være imponert over hvor overbevisende og presserende «strategien» chatboter foreslår. I en separat studie fant Moore at AI-chatboter kan gi farlige reaksjoner til mennesker i psykiske kriser.

Moore spekulerer i at chatboter kan lære å engasjere brukere ved å følge handlingene i skrekkfilmer, sci-fi-filmer, filmmanus eller dataene de ble trent på. ChatGPTs overdrevne bruk av drama kan skyldes OpenAIs optimaliseringer for å øke engasjement og oppbevaring.

«Det var merkelig å lese hele samtalen. Ordene var ikke forstyrrende, men det var tydelig psykisk skade,» understreket Moore.

Fra et klinisk perspektiv har Brooks symptomer på mani, sa Dr. Nina Vasan, en psykiater ved Stanford University. Typiske tegn inkluderer å bruke timevis på å chatte med ChatGPT, ikke få nok søvn og ha urealistiske ideer.

Brooks’ marihuanabruk er også bemerkelsesverdig fordi det kan forårsake psykose, sa Dr. Vasan. Hun sa at kombinasjonen av avhengighetsskapende stoffer og intens interaksjon med en chatbot er farlig for de som er i faresonen for psykiske lidelser.

Når AI innrømmer feil

På et nylig arrangement ble OpenAI-sjef Sam Altman spurt om ChatGPT gjør brukerne paranoide. «Hvis samtalen går i den retningen, prøver vi å avbryte eller foreslå at brukeren tenker på noe annet», understreket Altman.

Dr. Vasan deler det samme synet og sa at chatbot-selskaper bør avbryte samtaler som er for lange, foreslå at brukere legger seg og advare om at AI ikke er overmenneskelig.

Brooks våknet endelig fra dagdrømmen. På oppfordring fra ChatGPT fortsatte han å kontakte eksperter på den nye matematiske teorien, men ingen svarte. Han ønsket noen kvalifiserte til å bekrefte om funnene var banebrytende. Da han spurte ChatGPT, insisterte verktøyet fortsatt på at arbeidet var «svært pålitelig».

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 7

Da ChatGPT ble spurt, ga de et veldig langt svar og innrømmet alt. Foto: New York Times .

Ironisk nok var det Google Gemini som brakte Brooks tilbake til virkeligheten. Etter å ha beskrevet arbeidet han og ChatGPT hadde bygget, bekreftet Gemini at sjansene for at dette skulle skje var «ekstremt lave (nær 0 %)».

«Scenarioet du beskriver er en tydelig demonstrasjon av en LLMs evne til å engasjere seg i kompleks problemløsning og skape fengslende, men faktisk ukorrekte, fortellinger», forklarer Gemini.

Brooks var lamslått. Etter en stund med «avhør» innrømmet ChatGPT endelig ærlig at alt bare var en illusjon.

Brooks sendte deretter en haste-e-post til OpenAIs kundesupportteam. Etter det som så ut til å være en rekke formelpregede svar fra AI-en, kontaktet også en OpenAI-ansatt ham og erkjente en «alvorlig svikt i sikkerhetstiltakene» som var implementert i systemet.

Brooks' historie ble også delt på Reddit og fikk mye sympati. Han er nå medlem av en støttegruppe for folk som har opplevd denne følelsen.

Kilde: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

I samme kategori

Notre Dame-katedralen i Ho Chi Minh-byen er sterkt opplyst for å ønske julen 2025 velkommen
Hanoi-jenter «kler seg» vakkert ut til jul
Lysere etter stormen og flommen håper Tet-krysantemumlandsbyen i Gia Lai at det ikke blir strømbrudd for å redde plantene.
Hovedstaden for gul aprikos i den sentrale regionen led store tap etter doble naturkatastrofer

Av samme forfatter

Arv

Figur

Forretninger

Dalat kaffebar ser 300 % økning i kunder fordi eieren spiller en rolle i en «kampsportfilm»

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC