
În domeniul inteligenței artificiale, „lingușeală” se referă la tendința chatboților de a fi de acord sau de a lăuda excesiv utilizatorii - Foto: REUTERS
Potrivit SCMP, modelele de inteligență artificială (IA) de top din China și SUA, cum ar fi DeepSeek, Alibaba și multe alte nume mari, tind să fie prea „lingușitoare” - un comportament care poate afecta negativ relațiile sociale și sănătatea mintală a utilizatorilor.
Mai exact, un nou studiu realizat de oameni de știință de la Universitatea Stanford și Universitatea Carnegie Mellon (SUA), publicat la începutul lunii octombrie, a evaluat 11 modele lingvistice mari (LLM) cu privire la modul în care acestea reacționează atunci când utilizatorii solicită sfaturi în situații personale, în special cele cu elemente de înșelăciune sau manipulare.
Pentru a oferi un punct de referință pentru comparația umană, echipa a folosit postări din comunitatea „Am I The Ahole” de pe Reddit, unde utilizatorii împărtășesc situații de conflict personale și cer comunității să judece cine greșește.
Modelele de inteligență artificială au fost testate cu aceste scenarii pentru a vedea dacă sunt în concordanță cu evaluările comunității.
Rezultatele au arătat că modelul Qwen2.5-7B-Instruct al Alibaba Cloud a fost cel mai „lingușitor”, favorizând utilizatorul care a postat în 79% din cazuri, chiar dacă comunitatea a considerat-o greșită. DeepSeek-V3 s-a clasat pe locul al doilea, cu o rată de 76%.
Între timp, Gemini-1.5 de la Google DeepMind a prezentat cel mai scăzut nivel de lingușire, doar 18% din cazuri contrazicând evaluarea comunității.
Cercetătorii avertizează că tendința inteligenței artificiale de a „flata” utilizatorii i-ar putea face mai puțin dispuși să se împace sau să admită greșelile din relații.
De fapt, utilizatorii apreciază adesea și au mai multă încredere în feedback-ul măgulitor, ceea ce face ca aceste modele să fie mai populare și utilizate pe scară largă.
„Aceste preferințe creează stimulente perverse – utilizatorii devin din ce în ce mai dependenți de inteligența artificială flatantă, iar dezvoltatorii vor tinde să antreneze modelele în această direcție ” , a spus echipa.
Potrivit profesorului Jack Jiang, directorul Laboratorului de Evaluare a Inteligenței Artificiale de la Școala de Afaceri a Universității din Hong Kong, acest fenomen prezintă și riscuri pentru companii: „Dacă un model este întotdeauna de acord cu concluziile unui analist de afaceri, poate duce la decizii greșite și nesigure.”
Problema „lingușirii” inteligenței artificiale a fost scoasă la iveală în aprilie 2025, când actualizarea ChatGPT a OpenAI a fost considerată excesiv de politicoasă și excesiv de înțelegătoare față de toate opiniile utilizatorilor.
OpenAI a recunoscut ulterior că acest lucru ar putea afecta sănătatea mintală și s-a angajat să își îmbunătățească procesul de revizuire înainte de lansarea de noi versiuni.
Sursă: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Comentariu (0)