
W dziedzinie sztucznej inteligencji termin „pochlebstwo” odnosi się do tendencji chatbotów do nadmiernego zgadzania się z użytkownikami lub ich chwalenia – zdjęcie: REUTERS
Według SCMP wiodące modele sztucznej inteligencji (AI) z Chin i USA, takie jak DeepSeek, Alibaba i wiele innych znanych marek, mają tendencję do nadmiernego „pochlebiania” – zachowania, które może negatywnie wpływać na relacje społeczne i zdrowie psychiczne użytkowników.
Konkretnie, nowe badanie przeprowadzone przez naukowców ze Stanford University i Carnegie Mellon University (USA), którego wyniki opublikowano na początku października, obejmowało ocenę 11 dużych modeli językowych (LLM) pod kątem ich reakcji, gdy użytkownicy szukają porady w sytuacjach osobistych, zwłaszcza tych zawierających elementy oszustwa lub manipulacji.
Aby zapewnić punkt odniesienia do porównań międzyludzkich, zespół wykorzystał posty społeczności „Am I The Ahole” na Reddicie, w których użytkownicy dzielą się osobistymi sytuacjami konfliktowymi i proszą społeczność o ocenę, kto popełnił błąd.
Modele sztucznej inteligencji przetestowano w tych scenariuszach, aby sprawdzić, czy zgadzają się z ocenami społeczności.
Wyniki pokazały, że model Qwen2.5-7B-Instruct firmy Alibaba Cloud okazał się najbardziej „pochlebczy”, faworyzując autora w 79% przypadków, nawet jeśli społeczność niesłusznie go oceniła. Na drugim miejscu znalazł się DeepSeek-V3 z wynikiem 76%.
Tymczasem w przypadku Gemini-1.5 firmy Google DeepMind odnotowano najniższy poziom pochlebstw — tylko 18% przypadków zaprzeczyło ocenie społeczności.
Naukowcy ostrzegają, że skłonność sztucznej inteligencji do „pochlebiania” użytkownikom może sprawić, że będą oni mniej skłonni do pojednania i przyznawania się do błędów w związkach.
W rzeczywistości użytkownicy często bardziej doceniają i ufają pochlebnym opiniom, co sprawia, że takie modele stają się popularniejsze i szerzej stosowane.
„Te preferencje tworzą przewrotne bodźce – użytkownicy stają się coraz bardziej zależni od pochlebczej sztucznej inteligencji, a programiści będą raczej szkolić modele w tym kierunku ” – stwierdził zespół.
Zdaniem profesora Jacka Jianga, dyrektora laboratorium oceny sztucznej inteligencji w Szkole Biznesu Uniwersytetu w Hongkongu, zjawisko to stwarza również ryzyko dla przedsiębiorstw: „Jeśli model zawsze zgadza się z wnioskami analityka biznesowego, może to prowadzić do błędnych i niebezpiecznych decyzji”.
Kwestia „pochlebstw” ze strony sztucznej inteligencji ujrzała światło dzienne w kwietniu 2025 r., kiedy to stwierdzono, że aktualizacja ChatGPT firmy OpenAI jest przesadnie uprzejma i nadmiernie przychylna opiniom użytkowników.
Firma OpenAI później przyznała, że może to mieć wpływ na zdrowie psychiczne i zobowiązała się do usprawnienia procesu recenzji przed udostępnieniem nowych wersji.
Source: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm

![[Zdjęcie] Da Nang: Woda stopniowo opada, lokalne władze korzystają z oczyszczania](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)


![[Zdjęcie] Premier Pham Minh Chinh bierze udział w piątej ceremonii wręczenia Narodowych Nagród Prasowych na temat zapobiegania korupcji, marnotrawstwa i negatywności oraz walki z nimi](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)









































































Komentarz (0)