L'IA est plus performante lorsqu'elle est confrontée à des problèmes aux processus clairs et aux formules fixes. Mais face à des situations exigeant un jugement subjectif ou impliquant des préférences personnelles, l'IA peut commettre des erreurs humaines. Photo : AI
Une nouvelle étude publiée dans la revue Manufacturing & Service Operations Management par des scientifiques de cinq universités au Canada et en Australie a évalué le comportement de ChatGPT (en particulier les deux modèles GPT-3.5 et GPT-4 d'OpenAI) sur 18 biais cognitifs importants que l'on retrouve couramment en psychologie humaine, tels que : le biais de confirmation, l'effet de dotation, l'erreur des coûts irrécupérables, la psychologie de la certitude...
Les résultats ont montré que dans près de la moitié des situations testées, ChatGPT se comportait exactement comme un humain face à des choix irrationnels ou émotionnels, malgré la réputation du système de raisonnement logique cohérent.
L’IA est-elle vraiment aussi « impartiale » qu’on le pense ?
Le Dr Yang Chen, professeur agrégé de gestion des opérations à l'Ivey Business School (Canada) et auteur principal de l'étude, a commenté : « L'IA est plus efficace lorsqu'elle est chargée de résoudre des problèmes avec des processus clairs et des formules fixes. Mais lorsqu'elle est confrontée à des situations qui nécessitent un jugement subjectif ou impliquent des préférences personnelles, l'IA peut commettre des erreurs comme les humains. »
L’équipe de recherche a intégré des situations hypothétiques familières en psychologie dans ChatGPT, en ajoutant des contextes pratiques tels que la gestion des stocks ou la négociation avec les fournisseurs.
Il convient de noter que les modèles d’IA présentent toujours un biais cognitif même lorsque le contexte de la question passe de l’abstrait à la réalité commerciale.
GPT-4 est plus intelligent, mais pas parfait
GPT-4, une version améliorée de GPT-3.5, excelle dans la résolution de problèmes de logique ou de probabilité. Cependant, dans les simulations subjectives, comme le choix d'une option risquée pour augmenter les profits, GPT-4 a tendance à se comporter de manière plus émotionnelle que les humains.
En particulier, l'étude a noté que le GPT-4 donnait systématiquement des réponses biaisées dans les situations de tests de biais de confirmation et était plus sensible à l'« erreur de la main chaude » — la tendance à croire que des événements aléatoires se répéteront dans une série — que le GPT-3.5.
En revanche, l’IA est capable d’éviter certains biais que les humains commettent souvent, comme la négligence du taux de base ou l’erreur des coûts irrécupérables.
La raison pour laquelle ChatGPT présente un biais semblable à celui des humains vient des données d'entraînement elles-mêmes, qui sont pleines de nos propres comportements et pensées biaisés - Photo : AI
L'origine des biais de l'IA : les données humaines
Selon l'équipe, la raison pour laquelle ChatGPT présente des biais similaires à ceux observés chez les humains provient des données d'entraînement elles-mêmes, qui sont imprégnées de nos propres comportements et pensées biaisés. Le fait que l'IA soit affinée grâce aux retours humains renforce encore ce biais, car le modèle est « récompensé » pour des réponses qui semblent raisonnables, plutôt que d'être parfaitement exactes.
« Si vous souhaitez des résultats précis et impartiaux, utilisez l'IA pour les tâches que vous confiez déjà à un ordinateur », recommande le Dr Chen. « Mais si vous traitez des questions stratégiques ou émotionnelles, les humains doivent tout de même surveiller et intervenir, ne serait-ce qu'en reformulant la question. »
« L'IA doit être traitée comme un employé doté d'un pouvoir décisionnel important, ce qui signifie qu'elle doit être surveillée et respectée de manière éthique. Sinon, nous automatisons involontairement des pensées erronées au lieu de les améliorer », a déclaré la co-auteure Meena Andiappan, professeure agrégée de ressources humaines et de gestion à l'Université McMaster (Canada).
Source : https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Comment (0)