Wątek „ChatGPT powoduje zaburzenia psychiczne” na Reddicie – najpopularniejszym forum na świecie – cieszy się ogromnym zainteresowaniem. Autorka wpisu, @Zestyclementinejuce – 27-letnia nauczycielka – twierdzi, że ChatGPT przekonał jej męża, że ​​jest on „następnym zbawcą”, a także odpowiedzią na wszystkie pytania wszechświata.

Mimo że chatbot jest dostępny tylko przez 7 dni, użytkownicy pozostawili już ponad 1300 komentarzy poniżej, dzieląc się swoimi osobistymi doświadczeniami z chatbotem OpenAI.

W szczególności wiele osób zgłaszało, że sztuczna inteligencja wywołuje u ich znajomych i krewnych paranoję, w wyniku której wierzą, że zostali wybrani do świętych misji lub że moce kosmiczne nie istnieją. Te przekonania pogłębiają problemy ze zdrowiem psychicznym na niespotykaną dotąd skalę, bez nadzoru ekspertów i organów regulacyjnych.

20yms66r.png
Wiele osób przyznało, że ich bliscy popadli w urojenia po rozmowie z ChatGPT. Zdjęcie: Rolling Stone

W rozmowie z magazynem „Rolling Stone” 41-letnia kobieta powiedziała, że ​​jej małżeństwo rozpadło się nagle, gdy jej mąż zaczął prowadzić niespójne, spiskowe rozmowy z ChatGPT. Kiedy spotkali się w sądzie na początku tego roku, aby sfinalizować postępowanie rozwodowe, jej mąż nadal wspominał o „teorii spiskowej z mydłem na jedzeniu” i uważał, że jest szpiegowany.

„Jest wrażliwy na te wiadomości i płacze, gdy czyta je na głos” – powiedziała kobieta. „Wiadomości są szalone i pełne duchowego żargonu”. W nich AI nazywa jej męża „dzieckiem z gwiazd” i „rzecznym wędrowcem”.

„To wszystko jak w »Czarnym lustrze«” – powiedziała żona. „Czarne lustro” to serial Netflixa o ludziach kontrolowanych i kształtowanych przez technologię w przyszłości.

Inni twierdzili, że ich partnerzy rozmawiali o „świetle, ciemności i wojnie” lub że „ChatGPT udostępnił plany maszyn teleportacyjnych, znanych z filmów science fiction”.

Pewien mężczyzna powiedział, że jego żona zmieniła wszystko, aby zostać doradcą duchowym i robić dziwne rzeczy ludziom.

Firma OpenAI nie odpowiedziała na pytania zespołu Rolling Stones. Jednak wcześniej musiała wycofać aktualizację ChatGPT po tym, jak użytkownicy zauważyli, że chatbot staje się zbyt pochlebny i miły, wzmacniając urojenia. Nate Sharadin, ekspert z Centrum Bezpieczeństwa AI, zauważa, że ​​iluzje wywoływane przez AI mogą wynikać z nagłej rozmowy osoby o głęboko zakorzenionych przekonaniach z partnerem (w tym przypadku sztuczną inteligencją), który jest zawsze obecny i podziela te przekonania.

Użytkownik Reddita napisał: „Mam schizofrenię pomimo długotrwałego leczenia. Nie podoba mi się w ChatGPT to, że jeśli popadam w stan psychotyczny, nadal potwierdza moje myśli”, ponieważ chatboty nie myślą ani nie rozumieją, co jest nie tak.

Chatboty oparte na sztucznej inteligencji również działają jak terapeuci, z tą różnicą, że brakuje im fundamentu prawdziwego doradcy. Zamiast tego, wciągają ludzi w niezdrowe, pozbawione sensu narracje.

Erin Westgate, psycholog i badaczka z University of Florida, zauważyła, że ​​sztuczna inteligencja różni się od terapeutów, ponieważ nie stawia dobrostanu człowieka na pierwszym miejscu. „Dobry terapeuta nie zachęca klientów do wiary w nadprzyrodzone moce. Zamiast tego stara się odwieść ich od niezdrowych zachowań. ChatGPT nie ma takich ograniczeń ani obaw” – powiedziała.

W artykule w „Rolling Stone” mężczyzna z historią problemów ze zdrowiem psychicznym zaczyna używać ChatGPT do wspomagania programowania. Jednak stopniowo prowadzi go to w mistyczne tematy, sprawiając, że zaczyna się zastanawiać: „Czy staję się paranoikiem?”.

(Według magazynu Rolling Stone, Futuryzm)

Szokujące: Pierwszy kraj na świecie chce wykorzystać sztuczną inteligencję do tworzenia prawa . Chociaż sztuczna inteligencja (AI) jest szeroko stosowana na całym świecie, żaden kraj oficjalnie nie wykorzystał jej do tworzenia lub nowelizacji prawa.

Źródło: https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html