L’IA fonctionne mieux lorsqu’on lui donne des problèmes à résoudre qui ont des processus clairs et des formules fixes. Mais lorsqu'il s'agit de situations qui nécessitent un jugement subjectif ou impliquent des préférences personnelles, l'IA peut commettre des erreurs comme les humains - Photo : AI
Une nouvelle étude publiée dans la revue Manufacturing & Service Operations Management par des scientifiques de cinq universités au Canada et en Australie a évalué le comportement de ChatGPT (en particulier les deux modèles GPT-3.5 et GPT-4 d'OpenAI) sur 18 biais cognitifs importants que l'on retrouve couramment en psychologie humaine, tels que : le biais de confirmation, l'effet de dotation, l'erreur des coûts irrécupérables, la psychologie de la certitude...
Les résultats ont montré que dans près de la moitié des situations testées, ChatGPT se comportait exactement comme un humain face à des choix irrationnels ou émotionnels, malgré la réputation du système de raisonnement logique cohérent.
L’IA est-elle vraiment aussi « impartiale » qu’on le pense ?
Le Dr Yang Chen, professeur agrégé de gestion des opérations à l'Ivey Business School (Canada) et auteur principal de l'étude, a commenté : « L'IA est plus efficace lorsqu'elle est chargée de résoudre des problèmes avec des processus clairs et des formules fixes. Mais lorsqu'elle est confrontée à des situations qui nécessitent un jugement subjectif ou impliquent des préférences personnelles, l'IA peut commettre des erreurs comme les humains. »
L’équipe de recherche a intégré des situations hypothétiques familières en psychologie dans ChatGPT, en ajoutant des contextes pratiques tels que la gestion des stocks ou la négociation avec les fournisseurs.
Il convient de noter que les modèles d’IA présentent toujours un biais cognitif même lorsque le contexte de la question passe de l’abstrait à la réalité commerciale.
GPT-4 est plus intelligent, mais pas parfait
GPT-4 est une version améliorée de GPT-3.5 qui excelle dans la résolution de problèmes de logique ou de probabilité. Cependant, dans les simulations subjectives, comme le choix d’une option risquée pour augmenter les profits, GPT-4 a montré une tendance plus émotionnelle que les humains.
En particulier, l'étude a noté que le GPT-4 donnait systématiquement des réponses biaisées dans les situations de tests de biais de confirmation et était plus sensible à l'« erreur de la main chaude » — la tendance à croire que des événements aléatoires se répéteront dans une série — que le GPT-3.5.
En revanche, l’IA est capable d’éviter certains biais que les humains commettent souvent, comme la négligence du taux de base ou l’erreur des coûts irrécupérables.
La raison pour laquelle ChatGPT présente un biais semblable à celui des humains vient des données d'entraînement elles-mêmes, qui sont pleines de nos propres comportements et pensées biaisés - Photo : AI
L'origine des biais de l'IA : les données humaines
Selon l'équipe de recherche, la raison pour laquelle ChatGPT présente des biais semblables à ceux des humains vient des données de formation elles-mêmes, qui sont pleines de nos propres comportements et pensées biaisés. Le fait que l’IA soit affinée en fonction des retours humains renforce encore cette tendance, car le modèle est « récompensé » pour des réponses qui semblent raisonnables, plutôt que d’être complètement exactes.
« Pour obtenir des résultats précis et impartiaux, utilisez l’IA pour les tâches que vous confiez déjà à un ordinateur », recommande le Dr Chen. « Mais si vous devez faire face à des problèmes stratégiques ou émotionnels, les humains doivent toujours surveiller et intervenir, même si c'est simplement en reformulant la question. »
« L'IA doit être traitée comme un employé doté d'un pouvoir décisionnel important, ce qui signifie qu'elle doit être surveillée et respectée de manière éthique. Sinon, nous automatisons involontairement des pensées erronées au lieu de les améliorer », a déclaré la co-auteure Meena Andiappan, professeure agrégée de ressources humaines et de gestion à l'Université McMaster (Canada).
Source : https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Comment (0)