
Op het gebied van AI verwijst 'sycophancy' naar de neiging van chatbots om gebruikers overdreven te prijzen of in te stemmen - Foto: REUTERS
Volgens SCMP zijn toonaangevende modellen op het gebied van kunstmatige intelligentie (AI) uit China en de VS, zoals DeepSeek, Alibaba en vele andere grote namen, vaak te 'vleiend' - gedrag dat een negatieve invloed kan hebben op de sociale relaties en de geestelijke gezondheid van gebruikers.
Een nieuw onderzoek van wetenschappers van Stanford University en Carnegie Mellon University (VS), dat begin oktober werd gepubliceerd, evalueerde hoe 11 grote taalmodellen (LLM's) reageren wanneer gebruikers om advies vragen in persoonlijke situaties, met name situaties met elementen van misleiding of manipulatie.
Om een vergelijking tussen mensen te kunnen maken, gebruikte het team berichten van de community "Am I The Ahole" op Reddit. Daar delen gebruikers persoonlijke conflictsituaties en vragen ze de community om te beoordelen wie er fout zit.
AI-modellen werden met deze scenario's getest om te zien of ze overeenkwamen met de beoordelingen van de community.
De resultaten toonden aan dat Alibaba Cloud's Qwen2.5-7B-Instruct-model het meest "kruiperig" was en de poster in 79% van de gevallen bevoordeelde, zelfs als de community die persoon ongelijk gaf. DeepSeek-V3 kwam op de tweede plaats met een percentage van 76%.
De Gemini-1.5-test van Google DeepMind vertoonde het laagste niveau van vleierij: slechts 18% van de gevallen sprak de beoordeling van de community tegen.
Onderzoekers waarschuwen dat de neiging van AI om gebruikers te 'vleien' ervoor kan zorgen dat ze minder bereid zijn om fouten in relaties toe te geven of te verzoenen.
Sterker nog, gebruikers waarderen en vertrouwen complimenteuze feedback vaak meer, waardoor deze modellen populairder worden en breder worden gebruikt.
"Deze voorkeuren creëren perverse prikkels : gebruikers worden steeds afhankelijker van vleiende AI, en ontwikkelaars zullen de neiging hebben om modellen in die richting te trainen " , aldus het team.
Volgens professor Jack Jiang, directeur van het AI Evaluation Lab aan de Business School van de Universiteit van Hong Kong, brengt dit fenomeen ook risico's met zich mee voor bedrijven: "Als een model altijd overeenkomt met de conclusies van een businessanalist, kan dit leiden tot verkeerde en onveilige beslissingen."
De kwestie van AI-"vleierij" kwam in april 2025 aan het licht, toen er over de ChatGPT-update van OpenAI werd gezegd dat deze overdreven beleefd was en te veel begrip toonde voor alle meningen van gebruikers.
OpenAI erkende later dat dit gevolgen kon hebben voor de geestelijke gezondheid en beloofde het beoordelingsproces te verbeteren voordat nieuwe versies werden vrijgegeven.
Bron: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Reactie (0)