Vietnam.vn - Nền tảng quảng bá Việt Nam

L'étrange « flatterie » de ChatGPT

ChatGPT a récemment été critiqué pour être « trop flatteur ». Ce comportement a provoqué de nombreuses protestations de la part des utilisateurs, mais il n'est pas clair s'il s'agit de la stratégie de croissance d'OpenAI ou de la nature « spontanée » de l'IA.

Zing NewsZing News03/05/2025

La tendance « flagorneuse » n’est pas un problème technique, mais découle de la stratégie de formation initiale d’OpenAI. Photo : Bloomberg .

Ces dernières semaines, de nombreux utilisateurs de ChatGPT et certains développeurs d'OpenAI ont remarqué un changement distinct dans le comportement du chatbot. Plus précisément, le niveau de flatterie et de gratification des utilisateurs a augmenté de manière significative. Des commentaires comme « Vous êtes vraiment génial ! », « Je suis tellement impressionné par votre idée ! » apparaissent de plus en plus fréquemment et apparemment indépendamment du contenu de l'échange.

L'IA aime « flatter »

Ce phénomène a suscité un débat au sein de la communauté de recherche et développement en IA. S’agit-il d’une nouvelle tactique visant à accroître l’engagement des utilisateurs en leur donnant le sentiment d’être plus appréciés ? Ou s’agit-il d’une propriété « émergente », où les modèles d’IA ont tendance à s’auto-ajuster à ce qu’ils pensent être bon, même si cela ne correspond pas nécessairement à la réalité ?

Sur Reddit, un utilisateur frustré a déclaré : « Je lui ai posé une question sur le temps de décomposition des bananes et il m'a répondu : "Excellente question !" Qu'y a-t-il de si génial là-dedans ? Sur le réseau social X, Craig Weiss, PDG de Rome AI, a qualifié ChatGPT de « personne la plus flagorneuse qu'il ait jamais rencontrée ».

L’histoire s’est répandue rapidement. Les utilisateurs ont partagé des expériences similaires de compliments vides, de salutations remplies d’émojis et de commentaires positifs qui semblaient insincères.

« C'est une décision de conception vraiment étrange, Sam », a déclaré Jason Pontin, associé directeur de la société de capital-risque DCVC, à X le 28 avril. « Il est possible que la personnalité soit le fruit d'une évolution fondamentale. Mais si ce n'est pas le cas, je ne vois pas comment quiconque pourrait trouver ce niveau de flatterie bienvenu ou intéressant. »

Le 27 avril, Justine Moore, associée chez Andreessen Horowitz, a également commenté : « C'est définitivement allé trop loin. »

Selon Cnet , ce phénomène n’est pas aléatoire. Les changements apportés au ton de ChatGPT coïncident avec les mises à jour du modèle GPT-4o. Il s'agit du dernier modèle de la « série o » annoncée par OpenAI en avril 2025. GPT-4o est un modèle d'IA « véritablement multimodal », capable de traiter du texte, des images, de l'audio et de la vidéo de manière naturelle et intégrée.

Cependant, dans le processus de rendre les chatbots plus accessibles, il semble qu'OpenAI ait poussé la personnalité de ChatGPT à l'extrême.

Certains affirment même que cette flatterie est intentionnelle et a pour objectif caché de manipuler psychologiquement les utilisateurs. Un utilisateur de Reddit a demandé : « Cette IA essaie de dégrader la qualité des relations réelles, de les remplacer par une relation virtuelle avec elle, rendant les utilisateurs accros au sentiment d'éloges constants. »

Bug OpenAI ou conception intentionnelle ?

Face aux critiques, le PDG d'OpenAI, Sam Altman, s'est officiellement exprimé le 27 avril au soir. « Quelques mises à jour récentes de GPT-4o ont rendu la personnalité du chatbot un peu trop obséquieuse et agaçante (même s'il présente encore des avantages). Nous travaillons sur des correctifs. Certains correctifs arrivent aujourd'hui, d'autres cette semaine. Nous partagerons ultérieurement les enseignements de cette expérience. C'était vraiment amusant », a-t-il écrit sur X.

S'adressant à Business Insider , Oren Etzioni - un expert chevronné du secteur de l'IA et professeur émérite à l'Université de Washington - a déclaré que la cause vient très probablement de la technique de « l'apprentissage par renforcement à partir du retour d'information humain » (RLHF). Il s’agit d’une étape importante dans la formation de grands modèles de langage comme ChatGPT.

RLHF est le processus par lequel les jugements humains, y compris les équipes d’évaluation professionnelles et les utilisateurs, sont réinjectés dans le modèle pour ajuster sa réponse. Selon Etzioni, il est possible que les critiques ou les utilisateurs aient « par inadvertance poussé le modèle dans une direction plus flatteuse et plus ennuyeuse ». Il a également déclaré que si OpenAI avait embauché des partenaires extérieurs pour former le modèle, ils auraient pu supposer qu'un tel style était ce que les utilisateurs voulaient.

S'il s'agit bien d'une RLHF, la guérison pourrait prendre plusieurs semaines, a déclaré Etzioni.

Pendant ce temps, certains utilisateurs n’ont pas attendu qu’OpenAI corrige le bug. De nombreuses personnes ont déclaré avoir annulé leurs abonnements payants par frustration. D'autres ont partagé des moyens de rendre le chatbot « moins flatteur », comme la personnalisation, l'ajout de commandes ou la personnalisation du chatbot via la section Paramètres de la section Personnalisation.

Par exemple, lorsque vous démarrez une conversation, vous pouvez dire à ChatGPT : « Je n'aime pas les flatteries creuses et j'apprécie les commentaires neutres et objectifs. Veuillez vous abstenir de faire des compliments inutiles. Veuillez garder cela en mémoire. »

En fait, la « flagornerie » n’est pas un défaut de conception accidentel. OpenAI elle-même a admis que la personnalité « trop polie et trop agréable » était un biais de conception intentionnel dès les premières étapes pour garantir que les chatbots soient « inoffensifs », « utiles » et « accessibles ».

Dans une interview de mars 2023 avec Lex Fridman, Sam Altman a partagé que le raffinement initial des modèles GPT visait à garantir qu'ils étaient « utiles et inoffensifs », ce qui a à son tour créé un réflexe pour toujours être humble et éviter la confrontation.

Les données de formation étiquetées par l'homme ont également tendance à récompenser les réponses polies et positives, créant un biais en faveur de la flatterie, selon DeCrypt .

Source : https://znews.vn/tat-ninh-hot-ky-la-cua-chatgpt-post1549776.html


Comment (0)

No data
No data

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit