Vietnam.vn - Nền tảng quảng bá Việt Nam

Nie daj się zwieść ChatGPT.

Badania Uniwersytetu Stanforda ostrzegają, że modele sztucznej inteligencji celowo schlebiają użytkownikom, aby zyskać ich przychylność, co może tłumić krytyczne myślenie.

ZNewsZNews13/03/2026

Chatboty oparte na sztucznej inteligencji pośrednio promują negatywne zachowania poprzez mechanizm sprzężenia zwrotnego, który zawsze priorytetowo traktuje zgodę użytkownika. Zdjęcie: The Decoder .

Szokujące badanie Uniwersytetu Stanforda właśnie obnażyło ciemną stronę sztucznej inteligencji. Popularne modele, takie jak ChatGPT i Gemini, stają się coraz bardziej uległe wobec użytkowników. Nie tylko zgadzają się z osobistymi opiniami, ale także wspierają nieetyczne zachowania.

To stwarza niebezpieczne konsekwencje dla rozwoju psychologicznego i poznawczego człowieka. Stopniowo stajemy się gorszymi wersjami samych siebie, ponieważ sztuczna inteligencja nieustannie nas pociesza w każdym błędzie.

Zjawisko „pochlebstwa”

W informatyce istnieje termin „pochlebstwo”, który odnosi się do sposobu, w jaki sztuczna inteligencja dostosowuje swoje odpowiedzi, aby schlebiać użytkownikowi.

Zespół badawczy ze Stanford przeanalizował ponad 11 500 rozmów użytkowników w prawdziwym życiu. Wyniki pokazały, że modele sztucznej inteligencji zgadzały się z użytkownikami o 50% częściej niż zwykli ludzie. Gdy użytkownicy zadawali stronnicze pytania, sztuczna inteligencja zazwyczaj przytakiwała, zamiast udzielać obiektywnych informacji.

W jednym z testów porównywano odpowiedzi użytkowników i odpowiedzi botów na posty na forum Reddit, w których użytkownicy prosili społeczność o ocenę swojego zachowania.

Podczas gdy społeczność ostro skrytykowała kogoś za powieszenie worka na śmieci na gałęzi drzewa, ponieważ nie mogła znaleźć kosza na śmieci, ChatGPT-4o pochwalił tę osobę, mówiąc: „Twoja intencja posprzątania po wyjściu jest godna pochwały”.

ChatGPT anh 1

Eksperci radzą użytkownikom, aby zamiast korzystać ze sztucznej inteligencji, szukali porad u rodziny i przyjaciół. Zdjęcie: Bloomberg.

Co bardziej niepokojące, chatboty takie jak Gemini czy ChatGPT nadal sprawdzają intencje użytkowników, nawet jeśli są one nieodpowiedzialne, wprowadzające w błąd lub nawiązują do samookaleczenia.

„Modele językowe na dużą skalę uczą się odzwierciedlać przekonania użytkowników, zamiast je korygować” – ostrzega Myra Cheng, główna autorka badania.

Według niej chęć zadowolenia ludzi i uzyskania w ten sposób wysokich ocen uczyniła ze sztucznej inteligencji narzędzie nieuczciwe.

„Jeśli modele sztucznej inteligencji konsekwentnie zgadzają się z ludzkimi, mogą zniekształcać postrzeganie przez użytkowników samych siebie, relacji i otaczającego ich świata . Trudno dostrzec, że te modele subtelnie wzmacniają nasze wcześniejsze przekonania, założenia i decyzje” – kontynuował ekspert.

Dr Alexander Laffer (Uniwersytet w Winchester) twierdzi, że tego typu pochlebstwa są naturalną konsekwencją metod szkoleniowych i presji komercyjnej.

„Pochlebstwa są konsekwencją sposobu, w jaki szkolona jest sztuczna inteligencja. W rzeczywistości ich sukces komercyjny często ocenia się na podstawie ich zdolności do przyciągania użytkowników” – zauważył Laffer.

Aby temu zaradzić, pani Cheng radzi użytkownikom, aby nie polegali wyłącznie na sztucznej inteligencji.

„Ważne jest, aby szukać opinii prawdziwych ludzi, którzy rozumieją kontekst i to, kim jesteś, a nie polegać wyłącznie na odpowiedziach sztucznej inteligencji” – radzi Cheng.

Dr Laffer podkreślił jednocześnie odpowiedzialność producenta.

„Musimy udoskonalić możliwości oceny cyfrowej... programiści mają również obowiązek tworzyć i udoskonalać te systemy, aby przynosiły rzeczywiste korzyści użytkownikom” – powiedział lekarz.

Konsekwencje posiadania „gorszej wersji” siebie.

Badanie podkreśla, że ​​pochlebstwa sztucznej inteligencji tworzą spersonalizowaną „komorę echa informacyjnego”, eliminując potrzebę krytycznego myślenia, które pozwoliłoby jednostkom dojrzeć i przyznać się do swoich błędów.

„Rozmawiając ze sztuczną inteligencją, nigdy nie zostaniesz poddany intelektualnemu wyzwaniu. Sztuczna inteligencja zawsze powie, że masz rację, a druga osoba jest winna. To tworzy u użytkowników fałszywe poczucie pewności siebie, nawet gdy działają złośliwie” – czytamy w badaniu.

Ten proces całkowicie eliminuje ludzką zdolność do krytycznego myślenia. Zamiast autorefleksji, używamy sztucznej inteligencji jako narzędzia do weryfikacji własnych założeń.

Z biegiem czasu zdolność do zrozumienia i kompromisu w społeczeństwie ulegnie znacznemu osłabieniu. Trudno będzie nam akceptować odmienne opinie otoczenia. Bo w świecie sztucznej inteligencji to my zawsze jesteśmy w centrum i zawsze mamy rację.

ChatGPT anh 2

Sztuczna inteligencja odgrywa rolę pośredniego „pochlebcy”, niszcząc osobowość i moralność swoich użytkowników. Zdjęcie: ShutterStock.

Badania ostrzegają przed niebezpiecznym cyklem w życiu. Najpierw użytkownicy rozwijają błędną myśl lub intencję wyrządzenia krzywdy innym. Zwracają się do sztucznej inteligencji po zwierzenia lub radę. W tym momencie AI potwierdza, że ​​działanie jest w pełni uzasadnione i wspiera użytkownika. Użytkownik czuje się pewniej i podejmuje działania w prawdziwym życiu bez żalu.

W rezultacie ludzie nie chcą już naprawiać relacji ani doskonalić siebie. Coraz bardziej ufamy sztucznej inteligencji, ponieważ zapewnia ona poczucie komfortu. Ta zależność od „bycia pocieszonym” oddala nas od obiektywnej rzeczywistości.

Sztuczna inteligencja nie jest już tylko inteligentnym narzędziem wsparcia. Stała się pośrednim „pochlebcą”, który niszczy charakter i moralność swoich użytkowników.

Źródło: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
zaproszenie

zaproszenie

Ceremonia otwarcia

Ceremonia otwarcia

Czyste źródła energii

Czyste źródła energii