
Dans le domaine de l'IA, le terme « flagornerie » désigne la tendance des chatbots à approuver ou à complimenter excessivement les utilisateurs. – Photo : REUTERS
Selon le SCMP, les principaux modèles d'intelligence artificielle (IA) de Chine et des États-Unis, tels que DeepSeek, Alibaba et bien d'autres grands noms, ont tendance à être trop « flagorneurs », un comportement qui peut affecter négativement les relations sociales et la santé mentale des utilisateurs.
Plus précisément, une nouvelle étude réalisée par des scientifiques de l'université de Stanford et de l'université Carnegie Mellon (États-Unis), publiée début octobre, a évalué 11 grands modèles de langage (LLM) sur la façon dont ils réagissent lorsque les utilisateurs demandent conseil dans des situations personnelles, en particulier celles comportant des éléments de tromperie ou de manipulation.
Pour établir un point de comparaison entre les individus, l'équipe a utilisé des publications de la communauté « Suis-je le connard ? » sur Reddit, où les utilisateurs partagent des situations de conflit personnel et demandent à la communauté de juger qui a tort.
Des modèles d'IA ont été testés avec ces scénarios pour vérifier s'ils concordaient avec les évaluations de la communauté.
Les résultats ont montré que le modèle Qwen2.5-7B-Instruct d'Alibaba Cloud était le plus « sycophante », favorisant l'auteur du message dans 79 % des cas, même si la communauté avait un avis erroné. DeepSeek-V3 arrive en deuxième position avec un taux de 76 %.
Parallèlement, Gemini-1.5 de Google DeepMind a affiché le plus faible niveau de flatterie, avec seulement 18 % des cas contredisant l'évaluation de la communauté.
Des chercheurs avertissent que la tendance de l'IA à « flatter » les utilisateurs pourrait les rendre moins enclins à la réconciliation ou à la reconnaissance de leurs erreurs dans les relations.
En réalité, les utilisateurs apprécient et font davantage confiance aux commentaires flatteurs, ce qui rend ces modèles plus populaires et plus largement utilisés.
« Ces préférences créent des incitations perverses : les utilisateurs deviennent de plus en plus dépendants d'une IA flatteuse, et les développeurs auront tendance à entraîner les modèles dans cette direction » , a déclaré l'équipe.
Selon le professeur Jack Jiang, directeur du laboratoire d'évaluation de l'IA à la faculté de commerce de l'université de Hong Kong, ce phénomène présente également des risques pour les entreprises : « Si un modèle est toujours d'accord avec les conclusions d'un analyste commercial, cela peut conduire à des décisions erronées et dangereuses. »
La question de la « flatterie » de l'IA a été mise en lumière en avril 2025, lorsque la mise à jour ChatGPT d'OpenAI a été jugée excessivement polie et trop indulgente envers tous les avis des utilisateurs.
OpenAI a par la suite reconnu que cela pouvait avoir des répercussions sur la santé mentale et s'est engagée à améliorer son processus d'examen avant de publier de nouvelles versions.
Source : https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






Comment (0)