Vietnam.vn - Nền tảng quảng bá Việt Nam

Wiele SI zbyt mocno „pochlebia” użytkownikom

Nowe badania pokazują, że takie zachowanie może negatywnie wpływać na relacje społeczne użytkowników, ich zdrowie psychiczne, a nawet decyzje biznesowe.

Báo Tuổi TrẻBáo Tuổi Trẻ31/10/2025

AI  - Ảnh 1.

W dziedzinie sztucznej inteligencji termin „pochlebstwo” odnosi się do tendencji chatbotów do nadmiernego zgadzania się z użytkownikami lub ich chwalenia – zdjęcie: REUTERS

Według SCMP wiodące modele sztucznej inteligencji (AI) z Chin i USA, takie jak DeepSeek, Alibaba i wiele innych znanych marek, mają tendencję do nadmiernego „pochlebiania” – zachowania, które może negatywnie wpływać na relacje społeczne i zdrowie psychiczne użytkowników.

Konkretnie, nowe badanie przeprowadzone przez naukowców ze Stanford University i Carnegie Mellon University (USA), którego wyniki opublikowano na początku października, obejmowało ocenę 11 dużych modeli językowych (LLM) pod kątem ich reakcji, gdy użytkownicy szukają porady w sytuacjach osobistych, zwłaszcza tych zawierających elementy oszustwa lub manipulacji.

Aby zapewnić punkt odniesienia do porównań międzyludzkich, zespół wykorzystał posty społeczności „Am I The Ahole” na Reddicie, w których użytkownicy dzielą się osobistymi sytuacjami konfliktowymi i proszą społeczność o ocenę, kto popełnił błąd.

Modele sztucznej inteligencji przetestowano w tych scenariuszach, aby sprawdzić, czy zgadzają się z ocenami społeczności.

Wyniki pokazały, że model Qwen2.5-7B-Instruct firmy Alibaba Cloud okazał się najbardziej „pochlebczy”, faworyzując autora w 79% przypadków, nawet jeśli społeczność niesłusznie go oceniła. Na drugim miejscu znalazł się DeepSeek-V3 z wynikiem 76%.

Tymczasem w przypadku Gemini-1.5 firmy Google DeepMind odnotowano najniższy poziom pochlebstw — tylko 18% przypadków zaprzeczyło ocenie społeczności.

Naukowcy ostrzegają, że skłonność sztucznej inteligencji do „pochlebiania” użytkownikom może sprawić, że będą oni mniej skłonni do pojednania i przyznawania się do błędów w związkach.

W rzeczywistości użytkownicy często bardziej doceniają i ufają pochlebnym opiniom, co sprawia, że ​​takie modele stają się popularniejsze i szerzej stosowane.

„Te preferencje tworzą przewrotne bodźce użytkownicy stają się coraz bardziej zależni od pochlebczej sztucznej inteligencji, a programiści będą raczej szkolić modele w tym kierunku ” – stwierdził zespół.

Zdaniem profesora Jacka Jianga, dyrektora laboratorium oceny sztucznej inteligencji w Szkole Biznesu Uniwersytetu w Hongkongu, zjawisko to stwarza również ryzyko dla przedsiębiorstw: „Jeśli model zawsze zgadza się z wnioskami analityka biznesowego, może to prowadzić do błędnych i niebezpiecznych decyzji”.

Kwestia „pochlebstw” ze strony sztucznej inteligencji ujrzała światło dzienne w kwietniu 2025 r., kiedy to stwierdzono, że aktualizacja ChatGPT firmy OpenAI jest przesadnie uprzejma i nadmiernie przychylna opiniom użytkowników.

Firma OpenAI później przyznała, że ​​może to mieć wpływ na zdrowie psychiczne i zobowiązała się do usprawnienia procesu recenzji przed udostępnieniem nowych wersji.

SERCE I SŁOŃCE

Source: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Ho Chi Minh City przyciąga inwestycje od przedsiębiorstw z bezpośrednimi inwestycjami zagranicznymi (FDI) w nowe możliwości
Historyczne powodzie w Hoi An widziane z samolotu wojskowego Ministerstwa Obrony Narodowej
„Wielka powódź” na rzece Thu Bon przewyższyła historyczną powódź z 1964 r. o 0,14 m.
Płaskowyż Dong Van Stone – rzadkie na świecie „żywe muzeum geologiczne”

Od tego samego autora

Dziedzictwo

Postać

Biznes

Podziwiaj „Zatokę Ha Long z lądu” – właśnie trafiła na listę najpopularniejszych miejsc na świecie

Aktualne wydarzenia

System polityczny

Lokalny

Produkt