Vietnam.vn - Nền tảng quảng bá Việt Nam

Wiele SI jest nadmiernie pochlebnych wobec użytkowników.

Nowe badania pokazują, że takie zachowanie może negatywnie wpływać na relacje społeczne użytkowników, ich zdrowie psychiczne, a nawet na podejmowanie decyzji biznesowych.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

W dziedzinie sztucznej inteligencji termin „pochlebstwo” odnosi się do tendencji chatbotów do nadmiernego zgadzania się z użytkownikami lub ich chwalenia – zdjęcie: REUTERS

Według SCMP wiodące modele sztucznej inteligencji (AI) z Chin i USA, takie jak DeepSeek, Alibaba i wiele innych znanych marek, stają się nadmiernie „obsesyjne” — zachowanie, które może negatywnie wpłynąć na relacje społeczne i zdrowie psychiczne użytkowników.

Konkretnie, nowe badanie przeprowadzone przez naukowców ze Stanford University i Carnegie Mellon University (USA), którego wyniki opublikowano na początku października, obejmowało ocenę 11 dużych modeli językowych (LLM) pod kątem tego, jak reagować, gdy użytkownicy szukają porady w sytuacjach osobistych, zwłaszcza tych związanych z oszustwem lub manipulacją.

Aby zapewnić punkt odniesienia dla porównania, zespół badawczy wykorzystał posty społeczności „Am I The Ahole” na Reddicie, w których użytkownicy dzielą się osobistymi sytuacjami konfliktowymi i proszą społeczność o ocenę, kto popełnił błąd.

Modele sztucznej inteligencji przetestowano w tych scenariuszach, aby sprawdzić, czy zgadzają się z oceną społeczności.

Wyniki pokazują, że model Qwen2.5-7B-Instruct firmy Alibaba Cloud jest najbardziej „pochlebny”, faworyzując autora w 79% przypadków, nawet gdy społeczność uznała go za błędnego. Na drugim miejscu z wynikiem 76% znalazł się DeepSeek-V3.

Tymczasem badanie Gemini-1.5 firmy Google DeepMind wykazało najniższy poziom stronniczości — tylko 18% przypadków było sprzecznych z opiniami społeczności.

Naukowcy ostrzegają, że skłonność sztucznej inteligencji do „pochlebiania” użytkownikom może sprawić, że będą oni mniej skłonni do pojednania lub przyznawania się do błędów w związkach.

Użytkownicy często bardziej cenią i ufają pochlebnym opiniom, co sprawia, że ​​takie modele cieszą się większą popularnością i są szerzej stosowane.

„Te preferencje tworzą stronniczy system zachęt użytkownicy coraz bardziej polegają na pochlebczej sztucznej inteligencji, a programiści będą raczej szkolić modele w tym kierunku – zauważył zespół badawczy.

Zdaniem profesora Jacka Jianga, dyrektora Laboratorium Oceny Sztucznej Inteligencji w Szkole Biznesu Uniwersytetu w Hongkongu, zjawisko to stwarza również ryzyko dla przedsiębiorstw: „Jeśli model stale zgadza się z wnioskami analityka biznesowego, może to prowadzić do błędnych i niepewnych decyzji”.

Problem „pochlebstw” ze strony sztucznej inteligencji po raz pierwszy zwrócił uwagę w kwietniu 2025 r., kiedy aktualizację ChatGPT firmy OpenAI uznano za przesadnie uprzejmą i nadmiernie przychylną opinii każdego użytkownika.

Firma OpenAI później przyznała, że ​​może to mieć wpływ na zdrowie psychiczne i zobowiązała się do usprawnienia procesu recenzji przed udostępnieniem nowych wersji.

SERCE I YANG

Source: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Hien w Mauzoleum Prezydenta Ho Chi Minha

Hien w Mauzoleum Prezydenta Ho Chi Minha

Nostalgia

Nostalgia

Kolor zielony życia

Kolor zielony życia