Vietnam.vn - Nền tảng quảng bá Việt Nam

Wiele SI jest nadmiernie pochlebnych wobec użytkowników.

Nowe badania pokazują, że takie zachowanie może negatywnie wpływać na relacje społeczne użytkowników, ich zdrowie psychiczne, a nawet na podejmowanie decyzji biznesowych.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

W dziedzinie sztucznej inteligencji termin „pochlebstwo” odnosi się do tendencji chatbotów do nadmiernego zgadzania się z użytkownikami lub ich chwalenia – zdjęcie: REUTERS

Według SCMP wiodące modele sztucznej inteligencji (AI) z Chin i USA, takie jak DeepSeek, Alibaba i wiele innych znanych marek, stają się nadmiernie „obsesyjne” — zachowanie, które może negatywnie wpłynąć na relacje społeczne i zdrowie psychiczne użytkowników.

Konkretnie, nowe badanie przeprowadzone przez naukowców ze Stanford University i Carnegie Mellon University (USA), którego wyniki opublikowano na początku października, obejmowało ocenę 11 dużych modeli językowych (LLM) pod kątem tego, jak reagować, gdy użytkownicy szukają porady w sytuacjach osobistych, zwłaszcza tych związanych z oszustwem lub manipulacją.

Aby zapewnić punkt odniesienia dla porównania, zespół badawczy wykorzystał posty społeczności „Am I The Ahole” na Reddicie, w których użytkownicy dzielą się osobistymi sytuacjami konfliktowymi i proszą społeczność o ocenę, kto popełnił błąd.

Modele sztucznej inteligencji przetestowano w tych scenariuszach, aby sprawdzić, czy zgadzają się z oceną społeczności.

Wyniki pokazują, że model Qwen2.5-7B-Instruct firmy Alibaba Cloud jest najbardziej „pochlebny”, faworyzując autora w 79% przypadków, nawet gdy społeczność uznała go za błędnego. Na drugim miejscu z wynikiem 76% znalazł się DeepSeek-V3.

Tymczasem badanie Gemini-1.5 firmy Google DeepMind wykazało najniższy poziom stronniczości — tylko 18% przypadków było sprzecznych z opiniami społeczności.

Naukowcy ostrzegają, że skłonność sztucznej inteligencji do „pochlebiania” użytkownikom może sprawić, że będą oni mniej skłonni do pojednania lub przyznawania się do błędów w związkach.

Użytkownicy często bardziej cenią i ufają pochlebnym opiniom, co sprawia, że ​​takie modele cieszą się większą popularnością i są szerzej stosowane.

„Te preferencje tworzą stronniczy system zachęt użytkownicy coraz bardziej polegają na pochlebczej sztucznej inteligencji, a programiści będą raczej szkolić modele w tym kierunku – zauważył zespół badawczy.

Zdaniem profesora Jacka Jianga, dyrektora Laboratorium Oceny Sztucznej Inteligencji w Szkole Biznesu Uniwersytetu w Hongkongu, zjawisko to stwarza również ryzyko dla przedsiębiorstw: „Jeśli model stale zgadza się z wnioskami analityka biznesowego, może to prowadzić do błędnych i niepewnych decyzji”.

Problem „pochlebstw” ze strony sztucznej inteligencji po raz pierwszy zwrócił uwagę w kwietniu 2025 r., kiedy aktualizację ChatGPT firmy OpenAI uznano za przesadnie uprzejmą i nadmiernie przychylną opinii każdego użytkownika.

Firma OpenAI później przyznała, że ​​może to mieć wpływ na zdrowie psychiczne i zobowiązała się do usprawnienia procesu recenzji przed udostępnieniem nowych wersji.

SERCE I YANG

Source: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Festiwal Regionalny

Festiwal Regionalny

Witamy na Festiwalu Narodowym!

Witamy na Festiwalu Narodowym!

Szlak Przypraw

Szlak Przypraw