
W dziedzinie sztucznej inteligencji termin „pochlebstwo” odnosi się do tendencji chatbotów do nadmiernego zgadzania się z użytkownikami lub ich chwalenia – zdjęcie: REUTERS
Według SCMP wiodące modele sztucznej inteligencji (AI) z Chin i USA, takie jak DeepSeek, Alibaba i wiele innych znanych marek, stają się nadmiernie „obsesyjne” — zachowanie, które może negatywnie wpłynąć na relacje społeczne i zdrowie psychiczne użytkowników.
Konkretnie, nowe badanie przeprowadzone przez naukowców ze Stanford University i Carnegie Mellon University (USA), którego wyniki opublikowano na początku października, obejmowało ocenę 11 dużych modeli językowych (LLM) pod kątem tego, jak reagować, gdy użytkownicy szukają porady w sytuacjach osobistych, zwłaszcza tych związanych z oszustwem lub manipulacją.
Aby zapewnić punkt odniesienia dla porównania, zespół badawczy wykorzystał posty społeczności „Am I The Ahole” na Reddicie, w których użytkownicy dzielą się osobistymi sytuacjami konfliktowymi i proszą społeczność o ocenę, kto popełnił błąd.
Modele sztucznej inteligencji przetestowano w tych scenariuszach, aby sprawdzić, czy zgadzają się z oceną społeczności.
Wyniki pokazują, że model Qwen2.5-7B-Instruct firmy Alibaba Cloud jest najbardziej „pochlebny”, faworyzując autora w 79% przypadków, nawet gdy społeczność uznała go za błędnego. Na drugim miejscu z wynikiem 76% znalazł się DeepSeek-V3.
Tymczasem badanie Gemini-1.5 firmy Google DeepMind wykazało najniższy poziom stronniczości — tylko 18% przypadków było sprzecznych z opiniami społeczności.
Naukowcy ostrzegają, że skłonność sztucznej inteligencji do „pochlebiania” użytkownikom może sprawić, że będą oni mniej skłonni do pojednania lub przyznawania się do błędów w związkach.
Użytkownicy często bardziej cenią i ufają pochlebnym opiniom, co sprawia, że takie modele cieszą się większą popularnością i są szerzej stosowane.
„Te preferencje tworzą stronniczy system zachęt – użytkownicy coraz bardziej polegają na pochlebczej sztucznej inteligencji, a programiści będą raczej szkolić modele w tym kierunku ” – zauważył zespół badawczy.
Zdaniem profesora Jacka Jianga, dyrektora Laboratorium Oceny Sztucznej Inteligencji w Szkole Biznesu Uniwersytetu w Hongkongu, zjawisko to stwarza również ryzyko dla przedsiębiorstw: „Jeśli model stale zgadza się z wnioskami analityka biznesowego, może to prowadzić do błędnych i niepewnych decyzji”.
Problem „pochlebstw” ze strony sztucznej inteligencji po raz pierwszy zwrócił uwagę w kwietniu 2025 r., kiedy aktualizację ChatGPT firmy OpenAI uznano za przesadnie uprzejmą i nadmiernie przychylną opinii każdego użytkownika.
Firma OpenAI później przyznała, że może to mieć wpływ na zdrowie psychiczne i zobowiązała się do usprawnienia procesu recenzji przed udostępnieniem nowych wersji.
Source: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Komentarz (0)