Les programmes d'intelligence artificielle ont connu de nombreux succès ces dernières années - Photo : REUTERS
Nous ne pouvons pas observer l’intégralité du processus, depuis les données d’entrée jusqu’aux résultats de sortie des grands modèles linguistiques (LLM).
Pour faciliter la compréhension, les scientifiques ont utilisé des termes courants comme « raisonnement » pour décrire le fonctionnement de ces programmes. Ils affirment également que ces programmes peuvent « penser », « raisonner » et « comprendre » comme le font les humains.
Surestimer les capacités de l'IA
Au cours des deux dernières années, de nombreux dirigeants du secteur de l’IA ont eu recours à l’hyperbole pour exagérer de simples réalisations techniques, selon ZDNET du 6 septembre.
En septembre 2024, OpenAI a annoncé que le modèle de raisonnement o1 « utilise une chaîne d'inférence lors de la résolution de problèmes, de la même manière que les humains réfléchissent longtemps lorsqu'ils sont confrontés à des questions difficiles ».
Cependant, les scientifiques de l'IA s'y opposent. Ils estiment que l'IA n'a pas d'intelligence humaine.
Une étude sur la base de données arXiv menée par un groupe d'auteurs de l'Université d'État de l'Arizona (États-Unis) a vérifié la capacité de raisonnement de l'IA avec une expérience simple.
Les résultats ont montré que « l’inférence par chaîne de pensée est une illusion fragile », pas un véritable mécanisme logique, mais juste une forme sophistiquée de recherche de modèles.
Le terme « chaîne de pensée » (CoT) permet à l’IA non seulement de proposer une réponse finale, mais également de présenter chaque étape du raisonnement logique, comme dans les modèles GPT-o1 ou DeepSeek V1.
Illustration du modèle de langage GPT-2 d'OpenAI - Photo : ECHOCRAFTAI
Découvrez ce que fait réellement l'IA
Des analyses à grande échelle montrent que le LLM a tendance à s’appuyer sur la sémantique et les indices de surface plutôt que sur des processus de raisonnement logique, affirment les chercheurs.
« LLM construit des chaînes logiques superficielles basées sur des associations d'entrées apprises, échouant souvent sur des tâches qui s'écartent des méthodes de raisonnement conventionnelles ou des modèles familiers », explique l'équipe.
Pour tester l’hypothèse selon laquelle LLM ne faisait que correspondre des modèles et ne faisait pas réellement d’inférences, l’équipe a formé GPT-2, un modèle open source publié par OpenAI en 2019.
Le modèle a d'abord été entraîné sur des tâches très simples portant sur les 26 lettres anglaises, comme l'inversion de certaines lettres, par exemple la transformation de « APPLE » en « EAPPL ». L'équipe a ensuite modifié la tâche et a confié sa gestion à GPT-2.
Les résultats montrent que pour les tâches non incluses dans les données de formation, GPT-2 ne peut pas les résoudre avec précision à l’aide de CoT.
Au lieu de cela, le modèle tente d'appliquer les tâches apprises les plus similaires. Ses « inférences » peuvent donc sembler raisonnables, mais les résultats sont souvent erronés.
Le groupe a conclu qu'il ne fallait pas trop se fier ni faire aveuglément confiance aux réponses du LLM, car elles peuvent produire des « absurdités qui semblent très convaincantes ».
Ils ont également souligné la nécessité de comprendre la véritable nature de l’IA, d’éviter le battage médiatique et de cesser de promouvoir l’idée que l’IA a la capacité de raisonner comme les humains.
Source: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Comment (0)