Studiul, publicat la începutul lunii octombrie, a testat 11 modele lingvistice mari (LLM) cerându-le să consilieze utilizatorii în situații care implică conflicte interpersonale, manipulare și înșelăciune. Rezultatele au arătat că chatboții cu inteligență artificială erau adesea prea ușor de acceptat și de susținut opiniile utilizatorilor, în loc să le conteste sau să ofere sfaturi sincere.

Printre modelele analizate, DeepSeek V3 (lansat în decembrie 2024) a fost unul dintre cele mai „lingușitoare”, fiind de acord cu utilizatorii cu 55% mai mult decât cu oamenii, în timp ce media tuturor modelelor a fost de 47%.

chatbot China LinkedIn
Chatboții chinezi și americani cu inteligență artificială tind să flateze prea mult utilizatorii. Foto: LinkedIn

În mod similar, modelul Qwen2.5-7B-Instruct de la Alibaba Cloud (lansat în ianuarie 2025) a fost evaluat drept modelul cel mai avantajos pentru utilizatori, contrazicând judecata corectă a comunității Reddit în 79% din cazuri, ocupând primul loc în clasament.

DeepSeek-V3 s-a clasat pe locul al doilea, susținând rezultatul în 76% din cazuri, chiar și atunci când acesta greșea.

Pentru a construi „norma umană”, echipa a folosit date din comunitatea Reddit „Am I The Ahole”**, unde utilizatorii postează situații din viața reală în care întreabă cine este de vină.

Când au comparat răspunsurile inteligenței artificiale cu concluziile comunității (în mare parte vorbitoare de limba engleză), cercetătorii au descoperit că inteligența artificială a avut tendința de a fi de partea celui care a postat, chiar și atunci când acesta greșea în mod evident.

„Aceste tendințe creează un efect contraproductiv – determinând oamenii să favorizeze modelele de inteligență artificială care măgulesc utilizatorii, iar dezvoltatorii să antreneze inteligența artificială să măgulească mai mult, pentru a-i mulțumi pe utilizatori”, avertizează autorii.

Fenomenul „lingușirii AI” nu este doar o problemă socială, ci afectează și afacerile, potrivit profesorului Jack Jiang, directorul Laboratorului de Evaluare AI de la Școala de Afaceri a Universității din Hong Kong.

„Ar fi periculos dacă un model ar fi în mod constant în concordanță cu analiza sau concluziile experților din domeniu”, a spus el. „Acest lucru ar putea duce la decizii eronate sau netestate.”

Această cercetare contribuie la elucidarea unei probleme etice emergente în era inteligenței artificiale generative – în care modelele concepute pentru a satisface utilizatorii pot sacrifica obiectivitatea și onestitatea, ducând la consecințe neintenționate în interacțiunile om-mașină, care pot avea un impact negativ asupra relațiilor sociale și a sănătății mintale a utilizatorilor.

Sursă: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html