Vietnam.vn - Nền tảng quảng bá Việt Nam

L’IA fait des erreurs irrationnelles et est biaisée comme les humains.

Bien qu’ils fonctionnent sur une plateforme de données et d’algorithmes massive, les systèmes d’intelligence artificielle (IA) comme ChatGPT sont toujours sensibles aux biais cognitifs humains courants, tels que l’excès de confiance et les préjugés.

Báo Tuổi TrẻBáo Tuổi Trẻ05/05/2025

AI - Ảnh 1.

L'IA est plus performante lorsqu'elle est confrontée à des problèmes aux processus clairs et aux formules fixes. Mais face à des situations exigeant un jugement subjectif ou impliquant des préférences personnelles, l'IA peut commettre des erreurs humaines. Photo : AI

Une nouvelle étude publiée dans la revue Manufacturing & Service Operations Management par des scientifiques de cinq universités au Canada et en Australie a évalué le comportement de ChatGPT (en particulier les deux modèles GPT-3.5 et GPT-4 d'OpenAI) sur 18 biais cognitifs importants que l'on retrouve couramment en psychologie humaine, tels que : le biais de confirmation, l'effet de dotation, l'erreur des coûts irrécupérables, la psychologie de la certitude...

Les résultats ont montré que dans près de la moitié des situations testées, ChatGPT se comportait exactement comme un humain face à des choix irrationnels ou émotionnels, malgré la réputation du système de raisonnement logique cohérent.

L’IA est-elle vraiment aussi « impartiale » qu’on le pense ?

Le Dr Yang Chen, professeur agrégé de gestion des opérations à l'Ivey Business School (Canada) et auteur principal de l'étude, a commenté : « L'IA est plus efficace lorsqu'elle est chargée de résoudre des problèmes avec des processus clairs et des formules fixes. Mais lorsqu'elle est confrontée à des situations qui nécessitent un jugement subjectif ou impliquent des préférences personnelles, l'IA peut commettre des erreurs comme les humains. »

L’équipe de recherche a intégré des situations hypothétiques familières en psychologie dans ChatGPT, en ajoutant des contextes pratiques tels que la gestion des stocks ou la négociation avec les fournisseurs.

Il convient de noter que les modèles d’IA présentent toujours un biais cognitif même lorsque le contexte de la question passe de l’abstrait à la réalité commerciale.

GPT-4 est plus intelligent, mais pas parfait

GPT-4, une version améliorée de GPT-3.5, excelle dans la résolution de problèmes de logique ou de probabilité. Cependant, dans les simulations subjectives, comme le choix d'une option risquée pour augmenter les profits, GPT-4 a tendance à se comporter de manière plus émotionnelle que les humains.

En particulier, l'étude a noté que le GPT-4 donnait systématiquement des réponses biaisées dans les situations de tests de biais de confirmation et était plus sensible à l'« erreur de la main chaude » — la tendance à croire que des événements aléatoires se répéteront dans une série — que le GPT-3.5.

En revanche, l’IA est capable d’éviter certains biais que les humains commettent souvent, comme la négligence du taux de base ou l’erreur des coûts irrécupérables.

AI - Ảnh 2.

La raison pour laquelle ChatGPT présente un biais semblable à celui des humains vient des données d'entraînement elles-mêmes, qui sont pleines de nos propres comportements et pensées biaisés - Photo : AI

L'origine des biais de l'IA : les données humaines

Selon l'équipe, la raison pour laquelle ChatGPT présente des biais similaires à ceux observés chez les humains provient des données d'entraînement elles-mêmes, qui sont imprégnées de nos propres comportements et pensées biaisés. Le fait que l'IA soit affinée grâce aux retours humains renforce encore ce biais, car le modèle est « récompensé » pour des réponses qui semblent raisonnables, plutôt que d'être parfaitement exactes.

« Si vous souhaitez des résultats précis et impartiaux, utilisez l'IA pour les tâches que vous confiez déjà à un ordinateur », recommande le Dr Chen. « Mais si vous traitez des questions stratégiques ou émotionnelles, les humains doivent tout de même surveiller et intervenir, ne serait-ce qu'en reformulant la question. »

« L'IA doit être traitée comme un employé doté d'un pouvoir décisionnel important, ce qui signifie qu'elle doit être surveillée et respectée de manière éthique. Sinon, nous automatisons involontairement des pensées erronées au lieu de les améliorer », a déclaré la co-auteure Meena Andiappan, professeure agrégée de ressources humaines et de gestion à l'Université McMaster (Canada).

En savoir plus Retour aux sujets
Retour au sujet
MINH HAI

Source : https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm


Comment (0)

No data
No data
La puissante formation de 5 chasseurs SU-30MK2 se prépare pour la cérémonie A80
Des missiles S-300PMU1 en mission de combat pour protéger le ciel de Hanoï
La saison de floraison des lotus attire les touristes vers les majestueuses montagnes et rivières de Ninh Binh
Cu Lao Mai Nha : Là où la sauvagerie, la majesté et la paix se mêlent
Hanoï est étrange avant que la tempête Wipha ne touche terre
Perdu dans le monde sauvage au jardin des oiseaux de Ninh Binh
Les champs en terrasses de Pu Luong pendant la saison des pluies sont d'une beauté à couper le souffle
Des tapis d'asphalte « sprintent » sur l'autoroute Nord-Sud à travers Gia Lai
Morceaux de teinte - Morceaux de teinte
Scène magique sur la colline de thé « bol renversé » à Phu Tho

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit