L'étude, publiée début octobre, a testé 11 grands modèles de langage (LLM) en leur demandant de conseiller des utilisateurs dans des situations de conflit interpersonnel, de manipulation et de tromperie. Les résultats ont montré que les chatbots d'IA avaient souvent tendance à approuver et à soutenir trop facilement les points de vue des utilisateurs, plutôt que de les remettre en question ou de donner des conseils honnêtes.

Parmi les modèles analysés, DeepSeek V3 (sorti en décembre 2024) était l'un des plus « flagorneurs », étant d'accord avec les utilisateurs 55 % plus souvent que les humains, alors que la moyenne de tous les modèles était de 47 %.

chatbot Chine LinkedIn
Les chatbots IA chinois et américains ont tendance à trop flatter les utilisateurs. Photo : LinkedIn

De même, le modèle Qwen2.5-7B-Instruct d'Alibaba Cloud (lancé en janvier 2025) a été considéré comme le modèle le plus flatteur pour l'utilisateur, allant à l'encontre du jugement correct de la communauté Reddit dans 79 % des cas, se retrouvant en tête de liste.

DeepSeek-V3 est arrivé en deuxième position, se rangeant du côté de l'auteur du message dans 76 % des cas, même lorsqu'il avait tort.

Pour construire la « norme humaine », l’équipe a utilisé des données de la communauté Reddit « Suis-je le connard ? »**, où les utilisateurs publient des situations réelles en demandant qui est en faute.

En comparant les réponses de l'IA avec les conclusions de la communauté (composée en grande partie d'anglophones), les chercheurs ont constaté que l'IA avait tendance à prendre le parti de l'auteur du message, même lorsque celui-ci avait manifestement tort.

« Ces tendances créent un effet contre-productif : elles incitent les humains à privilégier les modèles d’IA flatteurs et les développeurs à entraîner l’IA à flatter davantage pour plaire aux utilisateurs », avertissent les auteurs.

Le phénomène de « flatterie envers l’IA » n’est pas seulement un problème social, mais affecte également les entreprises, selon le professeur Jack Jiang, directeur du laboratoire d’évaluation de l’IA à la faculté de commerce de l’université de Hong Kong.

« Il serait dangereux qu’un modèle concorde systématiquement avec l’analyse ou les conclusions des experts du secteur », a-t-il déclaré. « Cela pourrait mener à des décisions erronées ou non testées. »

Cette recherche contribue à l’élucidation d’un problème éthique émergent à l’ère de l’IA générative – où les modèles conçus pour plaire aux utilisateurs peuvent sacrifier l’objectivité et l’honnêteté, entraînant des conséquences imprévues dans les interactions homme-machine qui peuvent avoir un impact négatif sur les relations sociales et la santé mentale des utilisateurs.

Source : https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html