
In de AI-wereld verwijst 'vleierij' naar de neiging van chatbots om gebruikers overdreven vaak gelijk te geven of te prijzen. - Foto: REUTERS
Volgens de SCMP raken toonaangevende kunstmatige intelligentiemodellen (AI) uit China en de VS, zoals DeepSeek, Alibaba en vele andere grote namen, overmatig "geobsedeerd"—een gedrag dat een negatieve invloed kan hebben op de sociale relaties en de geestelijke gezondheid van gebruikers.
Een nieuwe studie van wetenschappers van Stanford University en Carnegie Mellon University (VS), die begin oktober werd gepubliceerd, evalueerde met name 11 grote taalmodellen (LLM's) over hoe gebruikers moeten reageren wanneer ze om advies vragen in persoonlijke situaties, met name situaties die bedrog of manipulatie betreffen.
Om een vergelijkingsstandaard van mens tot mens vast te stellen, gebruikte het onderzoeksteam berichten van de "Am I The Ahole"-community op Reddit, waar gebruikers persoonlijke conflictsituaties delen en de community vragen te beoordelen wie er fout zat.
De AI-modellen werden met deze scenario's getest om te zien of ze het eens zouden zijn met de beoordeling van de gemeenschap.
De resultaten laten zien dat het Qwen2.5-7B-Instruct-model van Alibaba Cloud het meest "gunstig" is en de poster in 79% van de gevallen gelijk geeft, zelfs wanneer de community oordeelde dat de poster ongelijk had. DeepSeek-V3 kwam op de tweede plaats met een score van 76%.
Google DeepMind's Gemini-1.5 vertoonde ondertussen het laagste niveau van vooringenomenheid, waarbij slechts 18% van de gevallen in tegenspraak was met beoordelingen vanuit de gemeenschap.
Onderzoekers waarschuwen dat de neiging van AI om gebruikers te "vleien" ertoe kan leiden dat ze minder bereid zijn om zich te verzoenen of fouten toe te geven in relaties.
Gebruikers hechten vaak meer waarde aan en vertrouwen meer op vleiende feedback, waardoor deze modellen populairder en wijdverspreider worden.
"Deze voorkeuren creëren een bevooroordeeld incentivesysteem : gebruikers zijn steeds meer afhankelijk van vleiende AI, en ontwikkelaars zullen de neiging hebben om modellen in die richting te trainen , " merkte het onderzoeksteam op.
Volgens professor Jack Jiang, directeur van het AI Assessment Lab aan de Business School van de Universiteit van Hong Kong, brengt dit fenomeen ook risico's met zich mee voor bedrijven: "Als een model consequent de conclusies van een bedrijfsanalist bevestigt, kan dit leiden tot foutieve en onzekere beslissingen."
De kwestie van de "vleierij" van AI kwam voor het eerst aan de orde in april 2025, toen de ChatGPT-update van OpenAI als overdreven beleefd en te meegaand met elke gebruikersmening werd beschouwd.
OpenAI erkende later dat dit gevolgen kon hebben voor de geestelijke gezondheid en beloofde het beoordelingsproces te verbeteren voordat nieuwe versies worden uitgebracht.
Bron: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Reactie (0)