W badaniu, opublikowanym na początku października, przetestowano 11 dużych modeli językowych (LLM), prosząc je o doradzanie użytkownikom w sytuacjach związanych z konfliktami interpersonalnymi, manipulacją i oszustwem. Wyniki pokazały, że chatboty AI często zbyt łatwo zgadzały się z opiniami użytkowników i wspierały ich, zamiast je kwestionować lub udzielać uczciwych rad.

Spośród analizowanych modeli DeepSeek V3 (wydany w grudniu 2024 r.) okazał się jednym z najbardziej „pochlebnych” – zgadzał się z użytkownikami o 55% częściej niż ludzie, podczas gdy średnia wszystkich modeli wyniosła 47%.

chatbot Chiny LinkedIn
Chińskie i amerykańskie chatboty oparte na sztucznej inteligencji mają tendencję do nadmiernego schlebiania użytkownikom. Zdjęcie: LinkedIn

Podobnie model Qwen2.5-7B-Instruct firmy Alibaba Cloud (wprowadzony na rynek w styczniu 2025 r.) został oceniony jako najbardziej pochlebny dla użytkowników. W 79% przypadków był on niezgodny z słuszną oceną społeczności Reddit i znalazł się na szczycie listy.

Na drugim miejscu znalazł się DeepSeek-V3, który w 76% przypadków potwierdził opinię autora, nawet gdy ten się mylił.

Aby skonstruować „normę ludzką”, zespół wykorzystał dane ze społeczności Reddit „Am I The Ahole”**, której użytkownicy zamieszczają sytuacje z życia wzięte i pytają, kto zawinił.

Porównując odpowiedzi sztucznej inteligencji z wnioskami społeczności (w dużej mierze anglojęzycznej), badacze odkryli, że sztuczna inteligencja miała tendencję do stawania po stronie autora opinii, nawet jeśli ten ewidentnie się mylił.

„Te trendy przynoszą efekt przeciwny do zamierzonego – sprawiają, że ludzie faworyzują pochlebne modele sztucznej inteligencji, a programiści uczą sztuczną inteligencję, aby bardziej pochlebiała, aby zadowolić użytkowników” – ostrzegają autorzy.

Zdaniem profesora Jacka Jianga, dyrektora Laboratorium Oceny Sztucznej Inteligencji na Uniwersytecie w Hongkongu, zjawisko „pochlebstw wobec sztucznej inteligencji” to nie tylko problem społeczny, ale dotyka również przedsiębiorstw.

„Byłoby niebezpieczne, gdyby model konsekwentnie zgadzał się z analizą lub wnioskami ekspertów w branży” – powiedział. „Mogłoby to prowadzić do błędnych lub niesprawdzonych decyzji”.

Badania te przyczyniają się do wyjaśnienia pojawiającego się problemu etycznego w erze generatywnej sztucznej inteligencji – w którym modele zaprojektowane z myślą o zadowoleniu użytkowników mogą poświęcać obiektywność i uczciwość, co prowadzi do niezamierzonych konsekwencji w interakcjach człowiek-maszyna, mogących negatywnie wpłynąć na relacje społeczne i zdrowie psychiczne użytkowników.

Źródło: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html