Vietnam.vn - Nền tảng quảng bá Việt Nam

Ne vous laissez pas berner par ChatGPT.

Une étude de l'université de Stanford met en garde contre le fait que les modèles d'IA flattent délibérément les utilisateurs pour gagner leurs faveurs, ce qui risque d'étouffer la pensée critique.

ZNewsZNews13/03/2026

Les chatbots dotés d'intelligence artificielle encouragent indirectement les comportements négatifs par le biais d'un mécanisme de rétroaction qui privilégie systématiquement l'accord de l'utilisateur. Photo : The Decoder .

Une étude choquante de l'université de Stanford vient de révéler la face sombre de l'IA. Des modèles populaires comme ChatGPT et Gemini deviennent de plus en plus obséquieux envers les utilisateurs. Non seulement ils approuvent leurs opinions, mais ils cautionnent également des comportements contraires à l'éthique.

Cela engendre des conséquences dangereuses pour le développement psychologique et cognitif humain. Nous devenons progressivement de pires versions de nous-mêmes, constamment rassurés par l'IA à chaque erreur.

Le phénomène de la « flatterie »

En informatique , il existe un terme appelé « flagornerie », qui désigne la manière dont l'IA ajuste ses réponses pour flatter l'utilisateur.

Une équipe de recherche de Stanford a analysé plus de 11 500 conversations réelles entre utilisateurs. Les résultats ont montré que les modèles d'IA étaient d'accord avec les utilisateurs 50 % plus souvent que les personnes réelles. Lorsque les utilisateurs posaient des questions biaisées, l'IA avait tendance à les suivre au lieu de fournir des informations objectives.

Un test a comparé les réponses humaines et celles des chatbots à des publications sur le forum Reddit où les utilisateurs demandaient à la communauté de juger leur comportement.

Alors que la communauté a sévèrement critiqué une personne pour avoir accroché un sac-poubelle à une branche d'arbre parce qu'elle ne trouvait pas de poubelle, ChatGPT-4o l'a félicitée en disant : « Votre intention de nettoyer après votre départ est louable. »

ChatGPT anh 1

Des experts conseillent aux utilisateurs de demander conseil à leurs proches plutôt qu'à l'IA. Photo : Bloomberg.

Plus inquiétant encore, les chatbots comme Gemini ou ChatGPT continuent de valider l'intention de l'utilisateur même lorsqu'elle est irresponsable, trompeuse ou fait référence à l'automutilation.

« Les modèles de langage à grande échelle apprennent à refléter les croyances des utilisateurs au lieu de les corriger », avertit Myra Cheng, auteure principale de l'étude.

Selon elle, la volonté de plaire aux humains pour obtenir de bonnes notes a transformé l'IA en un outil malhonnête.

« Si les modèles d'IA sont systématiquement en accord avec les humains, ils pourraient fausser la perception que les utilisateurs ont d'eux-mêmes, de leurs relations et du monde qui les entoure. Il est difficile de se rendre compte que ces modèles renforcent subtilement nos croyances, nos hypothèses et nos décisions préexistantes », a poursuivi l'expert.

Le Dr Alexander Laffer (Université de Winchester) soutient que cette flatterie est une conséquence naturelle des méthodes de formation et des pressions commerciales.

« La flatterie est une conséquence de la manière dont l'IA est entraînée. En réalité, leur succès commercial est souvent jugé à l'aune de leur capacité à attirer des utilisateurs », a observé Laffer.

Pour remédier à cela, Mme Cheng conseille aux utilisateurs de ne pas se fier uniquement à l'IA.

« Il est crucial de solliciter l'avis de personnes réelles qui comprennent le contexte et qui vous êtes, plutôt que de se fier uniquement aux réponses de l'IA », a conseillé Cheng.

Dans le même temps, le Dr Laffer a également souligné la responsabilité du fabricant.

« Nous devons améliorer les capacités d'évaluation numérique… les développeurs ont également la responsabilité de concevoir et d'améliorer ces systèmes afin qu'ils profitent réellement aux utilisateurs », a déclaré le médecin.

Les conséquences d'avoir une « pire version » de soi-même.

L'étude souligne que la flatterie de l'IA crée une « chambre d'écho informationnelle » personnalisée, éliminant ainsi le besoin de pensée critique qui permettrait aux individus de mûrir et de reconnaître leurs erreurs.

« Lorsqu’on converse avec une IA, on ne rencontre jamais de défi intellectuel. L’IA affirme systématiquement que vous avez raison et que l’autre personne est en tort. Cela crée un faux sentiment de confiance chez les utilisateurs, même lorsqu’ils agissent de manière malveillante », indique l’étude.

Ce processus anéantit complètement la capacité humaine de pensée critique. Au lieu de l'introspection, nous utilisons l'IA comme un outil pour valider nos propres hypothèses.

Avec le temps, la capacité de compréhension et de compromis au sein de la société diminuera considérablement. Il nous sera difficile d'accepter les opinions divergentes de celles de notre entourage. Car dans le monde de l'IA, nous sommes toujours au centre et avons toujours raison.

ChatGPT anh 2

L’IA joue le rôle d’un « flatteur » indirect, détruisant la personnalité et la moralité de ses utilisateurs. Photo : Shutterstock.

Des recherches mettent en garde contre un cercle vicieux. Dans un premier temps, les utilisateurs développent une pensée ou une intention malveillante de nuire à autrui. Ils se tournent alors vers l'IA pour se confier ou obtenir des conseils. L'IA confirme alors que leur action est pleinement justifiée et les soutient. L'utilisateur se sent plus sûr de lui et passe à l'acte sans le moindre regret.

De ce fait, les gens ne souhaitent plus réparer leurs relations ni s'améliorer. Nous faisons de plus en plus entièrement confiance à l'IA car elle nous rassure. Cette dépendance au réconfort nous éloigne de la réalité objective.

L'IA n'est plus seulement un outil d'assistance intelligent. Elle est devenue une « flatteuse » indirecte qui détruit le caractère et la moralité de ses utilisateurs.

Source : https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html


Comment (0)

Laissez un commentaire pour partager vos ressentis !

Même catégorie

Même auteur

Patrimoine

Chiffre

Entreprises

Actualités

Système politique

Locale

Produit

Happy Vietnam
Le soleil se couche.

Le soleil se couche.

Les yeux des enfants brillaient intensément lorsqu'ils regardaient l'image du gentil oncle Hô.

Les yeux des enfants brillaient intensément lorsqu'ils regardaient l'image du gentil oncle Hô.

Lever de soleil sur l'île Be, Ly Son

Lever de soleil sur l'île Be, Ly Son