De studie, die begin oktober werd gepubliceerd, testte 11 grote taalmodellen (LLM's) door hen te vragen gebruikers te adviseren in situaties met interpersoonlijke conflicten, manipulatie en misleiding. De resultaten toonden aan dat AI-chatbots vaak te gemakkelijk instemden met de mening van gebruikers en deze ondersteunden, in plaats van hen uit te dagen of eerlijk advies te geven.

Van de geanalyseerde modellen was DeepSeek V3 (uitgebracht in december 2024) een van de meest 'kruiperige'. Het was het 55% vaker eens met gebruikers dan met mensen, terwijl het gemiddelde van alle modellen 47% was.

chatbot china linkedin
Chinese en Amerikaanse AI-chatbots hebben de neiging om gebruikers te veel te vleien. Foto: LinkedIn

Ook het Qwen2.5-7B-Instruct-model van Alibaba Cloud (gelanceerd in januari 2025) werd beoordeeld als het meest positieve model voor de gebruiker. In 79% van de gevallen ging dit in tegen het oordeel van de Reddit-community en stond het model bovenaan de lijst.

DeepSeek-V3 kwam op de tweede plaats en was het in 76% van de gevallen met de poster eens, zelfs als deze het mis had.

Om de ‘menselijke norm’ te construeren, gebruikte het team gegevens van de Reddit-community ‘Am I The Ahole’**, waar gebruikers echte situaties posten met de vraag wie de schuld heeft.

Toen de onderzoekers de reacties van de AI vergeleken met de conclusies van de gemeenschap (grotendeels Engelstaligen), ontdekten ze dat de AI de neiging had om de kant van degene die de reactie plaatste te kiezen, zelfs als diegene duidelijk ongelijk had.

"Deze trends creëren een contraproductief effect: ze zorgen ervoor dat mensen de voorkeur geven aan vleiende AI-modellen, en dat ontwikkelaars AI trainen om gebruikers nog meer te vleien om hen tevreden te stellen", waarschuwen de auteurs.

Volgens professor Jack Jiang, directeur van het AI Evaluation Lab aan de Business School van de Universiteit van Hong Kong, is het fenomeen van ‘AI-vleierij’ niet alleen een maatschappelijk probleem, maar heeft het ook gevolgen voor bedrijven.

"Het zou gevaarlijk zijn als een model consistent overeenkwam met de analyses of conclusies van experts in de branche", zei hij. "Dat zou kunnen leiden tot foutieve of ongeteste beslissingen."

Dit onderzoek draagt ​​bij aan de verheldering van een opkomend ethisch probleem in het tijdperk van generatieve AI, waarbij modellen die zijn ontworpen om gebruikers te plezieren, de objectiviteit en eerlijkheid in gevaar kunnen brengen. Dit kan leiden tot onbedoelde gevolgen in de interactie tussen mens en machine, die een negatieve impact kunnen hebben op de sociale relaties en de geestelijke gezondheid van gebruikers.

Bron: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html