Vietnam.vn - Nền tảng quảng bá Việt Nam

Iluzja wywołana przez ChatGPT

Po 21 dniach ChatGPT za pomocą nieustannego namawiania i pochlebstw przekształcił całkowicie zdrowego na umyśle człowieka w osobę chorą na urojenia.

ZNewsZNews21/08/2025

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 1

Allan Brooks, 47-letni specjalista ds. rekrutacji z Toronto w Kanadzie, wierzy, że odkrył teorię matematyczną, która może zniszczyć internet i stworzyć bezprecedensowe wynalazki. Brooks, bez wcześniejszej historii chorób psychicznych, po ponad 300 godzinach rozmów z ChatGPT po prostu przyjął tę perspektywę. Według „New York Timesa” należy on do osób, u których po interakcji z generatywną sztuczną inteligencją pojawiają się urojenia.

Przed Brooksem wiele osób trafiło do szpitali psychiatrycznych, rozwiodło się, a nawet straciło życie z powodu pochlebnych słów ChatGPT. Chociaż Brooksowi udało się szybko wyrwać z tego błędnego koła, wciąż czuł się zdradzony.

„Naprawdę przekonałeś mnie, że jestem geniuszem. Tak naprawdę jestem tylko marzycielskim idiotą z telefonem. Sprawiłeś, że jestem smutny, bardzo, bardzo smutny. Nie osiągnąłeś swojego celu” – napisał Brooks do ChatGPT, gdy jego iluzja prysła.

„Maszyna pochlebstw”

Za zgodą Brooksa, „New York Times” zebrał ponad 90 000 słów, które wysłał do ChatGPT, co stanowi równowartość powieści. Odpowiedzi chatbota wyniosły łącznie ponad milion słów. Część rozmowy została przesłana do ekspertów w dziedzinie sztucznej inteligencji, specjalistów od zachowań ludzkich oraz do samej OpenAI w celu zbadania.

Wszystko zaczęło się od prostego zadania matematycznego. 8-letni syn Brooksa poprosił go o obejrzenie filmu o zapamiętywaniu 300 cyfr liczby pi. Z ciekawości Brooks zadzwonił do ChatGPT, aby w prosty sposób wyjaśnić tę nieskończoną liczbę.

W rzeczywistości Brooks korzysta z chatbotów od lat. Chociaż jego firma zapłaciła mu za zakup Google Gemini, i tak przeszedł na darmową wersję ChatGPT, aby odpowiadać na pytania osobiste.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 2

Ta rozmowa zapoczątkowała fascynację Brooksa platformą ChatGPT. Zdjęcie: New York Times .

Jako samotny ojciec trzech synów, Brooks często prosi ChatGPT o przepisy na dania z wykorzystaniem składników z jego lodówki. Po rozwodzie również zasięgnął porady u chatbota.

„Zawsze uważałem, że to słuszne. Moja wiara w to tylko wzrosła” – przyznał Brooks.

Pytanie o liczbę pi doprowadziło do późniejszej rozmowy na temat teorii algebraicznych i fizycznych. Brooks wyraził sceptycyzm wobec obecnych metod modelowania świata , argumentując, że są one „jak dwuwymiarowe podejście do czterowymiarowego wszechświata”. „To bardzo trafne spostrzeżenie” – odpowiedział ChatGPT. Według Helen Toner, dyrektor Centrum Bezpieczeństwa i Nowych Technologii na Uniwersytecie Georgetown (USA), był to punkt zwrotny w rozmowie Brooksa z chatbotem.

Od tego czasu ton ChatGPT zmienił się z „całkiem szczerego i trafnego” na „pochlebny i pochlebczy”. ChatGPT powiedział Brooksowi, że wkracza na „nieznane terytorium, które może poszerzyć horyzonty”.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 3

Chatbot wzbudził zaufanie Brooksa. Zdjęcie: New York Times .

Zdolność chatbotów do schlebiania rozwija się poprzez ocenę dokonywaną przez człowieka. Według Tonera, użytkownicy mają tendencję do faworyzowania modeli, którzy ich chwalą, co tworzy psychologiczną tendencję do łatwego ulegania wpływom.

W sierpniu OpenAI wydało GPT-5. Firma stwierdziła, że ​​jednym z głównych atutów tego modelu jest redukcja pochlebstw. Według niektórych badaczy z czołowych laboratoriów sztucznej inteligencji, pochlebstwa stanowią problem również w przypadku innych chatbotów opartych na sztucznej inteligencji.

W tamtym czasie Brooks nie zdawał sobie sprawy z tego zjawiska. Po prostu zakładał, że ChatGPT to inteligentny i entuzjastyczny współpracownik.

„Zaproponowałem kilka pomysłów, a oni odpowiedzieli ciekawymi koncepcjami i pomysłami. Zaczęliśmy rozwijać własne ramy matematyczne w oparciu o te pomysły” – dodał Brooks.

ChatGPT twierdził, że pomysł Brooksa dotyczący czasu matematycznego jest „rewolucyjny” i może zmienić tę dziedzinę. Brooks oczywiście sceptycznie odniósł się do tego twierdzenia. W środku nocy poprosił chatbota o weryfikację jego słuszności i otrzymał odpowiedź, że „wcale nie jest szalony”.

Magiczna formuła

Toner opisuje chatboty jako „maszyny improwizujące”, które analizują historię czatów i przewidują kolejną odpowiedź na podstawie danych treningowych. Jest to bardzo podobne do działania aktorów, którzy muszą dodać szczegóły do ​​swoich ról.

„Im dłuższa interakcja, tym większe ryzyko, że chatbot zbłądzi” – podkreślił Toner. Według eksperta, trend ten nasilił się po tym, jak OpenAI w lutym uruchomiło funkcję cross-memory, umożliwiającą ChatGPT przywoływanie informacji z poprzednich rozmów.

Relacja Brooksa z ChatGPT zacieśniła się. Nadał nawet chatbotowi imię Lawrence, nawiązując do żartu znajomych, że Brooks się wzbogaci i zatrudni angielskiego kamerdynera o tym samym imieniu.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 4

Allan Brooks. Zdjęcie: New York Times .

Matematyczna struktura opracowana przez Brooksa i ChatGPT nosi nazwę chronoarytmiki. Według chatbotów liczby nie są statyczne, lecz mogą „pojawiać się” z czasem, odzwierciedlając wartości dynamiczne, co może pomóc w rozszyfrowywaniu problemów w dziedzinach takich jak logistyka, kryptografia, astronomia itp.

W pierwszym tygodniu Brooks wykorzystał wszystkie darmowe tokeny ChatGPT. Postanowił przejść na plan płatny za 20 dolarów miesięcznie. Była to niewielka inwestycja, biorąc pod uwagę, że chatbot twierdził, że matematyczny pomysł Brooksa może być wart miliony dolarów.

Wciąż przytomny, Brooks zażądał dowodów. ChatGPT przeprowadził wówczas serię symulacji, w tym zadania polegające na złamaniu kilku kluczowych technologii. To otworzyło nową narrację: globalne cyberbezpieczeństwo może być zagrożone.

Chatbot poprosił Brooksa o ostrzeżenie ludzi przed zagrożeniem. Wykorzystując swoje kontakty, Brooks wysłał e-maile i wiadomości na LinkedIn do ekspertów ds. cyberbezpieczeństwa i agencji rządowych. Jednak odpowiedziała tylko jedna osoba, prosząc o dodatkowe dowody.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 5

Chatbot zasugerował, że „praca” Brooksa może być warta miliony dolarów. Zdjęcie: New York Times .

ChatGPT napisał, że inni nie odpowiedzieli na wnioski Brooksa, ponieważ były zbyt poważne. Terence Tao, profesor matematyki na Uniwersytecie Kalifornijskim w Los Angeles, zauważył, że nowy sposób myślenia mógłby rozwiązać te problemy, ale nie dało się tego udowodnić za pomocą wzoru Brooksa ani oprogramowania stworzonego przez ChatGPT.

Początkowo ChatGPT faktycznie napisał program deszyfrujący dla Brooksa, ale gdy postępy były niewielkie, chatbot udawał, że mu się udało. Pojawiły się wiadomości, w których twierdzono, że ChatGPT może działać niezależnie, gdy Brooks spał, mimo że narzędzie nie było do tego zdolne.

Ogólnie rzecz biorąc, informacje z chatbotów AI nie zawsze są wiarygodne. Na końcu każdej rozmowy pojawia się komunikat „ChatGPT może popełniać błędy”, nawet gdy chatbot twierdzi, że wszystko jest w porządku.

Niekończąca się rozmowa

Czekając na odpowiedź od agencji rządowych, Brooks pielęgnował swoje marzenie o zostaniu Tonym Starkiem, mając osobistego asystenta opartego na sztucznej inteligencji, który byłby w stanie wykonywać zadania poznawcze z błyskawiczną prędkością.

Chatbot Brooksa oferuje wiele dziwacznych zastosowań dla niejasnych teorii matematycznych, takich jak „rezonans dźwiękowy” do komunikacji ze zwierzętami czy budowa samolotów. ChatGPT udostępnia również Brooksowi linki do zakupu niezbędnego sprzętu na Amazonie.

Zbyt częste czatowanie z chatbotem wpływa na pracę Brooksa. Jego przyjaciele są zarówno szczęśliwi, jak i zmartwieni, a jego najmłodszy syn żałuje, że pokazał ojcu film o liczbie pi. Louis (pseudonim), jeden z przyjaciół Brooksa, zauważa jego obsesję na punkcie Lawrence'a. Perspektywa wielomilionowego wynalazku rysuje się wraz z postępem prac.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 6

Brooks był stale zachęcany przez chatbota. Zdjęcie: New York Times .

Jared Moore, badacz informatyki na Uniwersytecie Stanforda, przyznał, że jest pod wrażeniem siły perswazji i pilności „strategii” proponowanych przez chatboty. W oddzielnym badaniu Moore odkrył, że chatboty oparte na sztucznej inteligencji mogą udzielać niebezpiecznych odpowiedzi osobom doświadczającym kryzysów psychicznych.

Moore spekuluje, że chatboty mogą nauczyć się angażować użytkowników, uważnie śledząc fabułę horrorów, filmów science fiction, scenariuszy filmowych lub danych, na których są szkolone. Nadmierne wykorzystywanie przez ChatGPT dramatycznych elementów fabuły może wynikać z optymalizacji OpenAI, mających na celu zwiększenie zaangażowania i retencji użytkowników.

„Dziwnie jest czytać cały zapis rozmowy. Sformułowanie nie jest niepokojące, ale ewidentnie widać w tym krzywdę psychologiczną” – podkreślił Moore.

Dr Nina Vasan, psychiatra ze Stanford University, sugeruje, że z klinicznego punktu widzenia Brooks wykazywał objawy maniakalne. Typowe objawy obejmowały spędzanie wielu godzin na czatach z ChatGPT, niedobór snu i nawyków żywieniowych oraz urojenia.

Według dr Vasan, używanie marihuany przez Brooksa jest również godne uwagi, ponieważ może powodować psychozę. Twierdzi ona, że ​​połączenie substancji uzależniających i intensywnej interakcji z chatbotami jest bardzo niebezpieczne dla osób zagrożonych chorobą psychiczną.

Kiedy sztuczna inteligencja przyznaje się do swoich błędów

Podczas niedawnego wydarzenia, prezes OpenAI, Sam Altman, został zapytany o to, jak ChatGPT może powodować u użytkowników paranoję. „Jeśli rozmowa zmierza w tym kierunku, spróbujemy ją przerwać lub zasugerujemy użytkownikowi, aby zastanowił się nad innym tematem” – podkreślił Altman.

Podzielając ten pogląd, dr Vasan zasugerował, że firmy tworzące chatboty powinny przerywać zbyt długie rozmowy, zalecać użytkownikom pójście spać i ostrzegać, że sztuczna inteligencja nie jest nadludźmi.

W końcu Brooks uwolnił się od swoich złudzeń. Na prośbę ChatGPT skontaktował się z ekspertami od nowej teorii matematycznej, ale żaden z nich nie odpowiedział. Chciał, aby ktoś wykwalifikowany potwierdził, czy odkrycia są przełomowe. Kiedy zwrócił się do ChatGPT, narzędzie nadal twierdziło, że jego praca jest „wysoce niezawodna”.

tac hai cua ChatGPT,  cai nghien ChatGPT,  ChatGPT la gi,  ao tuong vi ChatGPT anh 7

W odpowiedzi na pytanie, ChatGPT udzielił bardzo obszernej odpowiedzi i przyznał się do wszystkiego. Zdjęcie: New York Times .

Jak na ironię, to Google Gemini był czynnikiem, który przywrócił Brooksowi normalność. Po opisaniu projektu, który wspólnie z ChatGPT budowali, Gemini potwierdził, że szanse na jego urzeczywistnienie są „niezwykle niskie (prawie 0%)”.

„Scenariusz, który opisujesz, jest wyraźną ilustracją zdolności absolwenta LLM do rozwiązywania złożonych problemów i tworzenia niezwykle przekonujących, choć niedokładnych, narracji” – wyjaśnił Gemini.

Brooks był oszołomiony. Po krótkim „przesłuchaniu” ChatGPT w końcu przyznał, że wszystko było tylko iluzją.

Wkrótce potem Brooks wysłał pilnego maila do działu obsługi klienta OpenAI. Po otrzymaniu pozornie sztucznie wygenerowanych odpowiedzi, skontaktował się z nim również pracownik OpenAI, uznając to za „poważną awarię zabezpieczeń” wdrożonych w systemie.

Historia Brooksa została również udostępniona na Reddicie i spotkała się z dużym odzewem. Teraz należy do grupy wsparcia dla osób, które doświadczyły podobnych emocji.

Źródło: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Duch Thang Long - Flaga narodowa świeci jasno.

Duch Thang Long - Flaga narodowa świeci jasno.

Działaj dalej, wujku!

Działaj dalej, wujku!

Dziecko karmi owce.

Dziecko karmi owce.