
Pour les grands patrons de la tech d'aujourd'hui, comme Dario Amodei d'Anthropic, Demis Hassabis de Google et Sam Altman d'OpenAI, affirmer que leur IA est la meilleure ne suffit plus. Tous trois ont récemment déclaré publiquement que l'IA sera si performante qu'elle transformera en profondeur le tissu social.
Cependant, un nombre croissant de chercheurs, parmi lesquels ceux qui conçoivent, étudient et utilisent l'IA moderne, se montrent sceptiques face à de telles affirmations.
Le raisonnement de l'IA n'est pas omnipotent.
Trois ans seulement après son apparition, l'intelligence artificielle s'est déjà immiscée dans de nombreuses activités quotidiennes, comme les études et le travail. Nombreux sont ceux qui craignent qu'elle ne soit bientôt capable de remplacer l'être humain.
Cependant, les nouveaux modèles d'IA actuels ne sont en réalité pas aussi performants qu'on le pense. Une découverte d'Apple, l'une des plus grandes entreprises technologiques au monde , le prouve.
Plus précisément, dans une étude récemment publiée intitulée « Illusionary Thinking », l’équipe de recherche d’Apple affirme que les modèles d’inférence comme Claude, DeepSeek-R1 et o3-mini ne sont pas réellement « pilotés par le cerveau » comme leurs noms le suggèrent.
L'article d'Apple s'appuie sur des travaux antérieurs réalisés par de nombreux ingénieurs similaires, ainsi que sur des recherches notables menées dans le milieu universitaire et par d'autres grandes entreprises technologiques, dont Salesforce.
Ces expériences montrent que les IA d'inférence — qui ont été saluées comme la prochaine étape vers des agents d'IA autonomes, et éventuellement une superintelligence — sont dans certains cas moins performantes pour résoudre les problèmes que les chatbots d'IA de base qui les ont précédées.
![]() |
Une nouvelle étude d'Apple sur les grands modèles d'inférence montre que les modèles d'IA ne sont pas aussi gourmands en ressources cognitives qu'on le prétend. Photo : OpenAI. |
Dans cette étude également, que ce soit avec des chatbots d'IA ou des modèles d'inférence, tous les systèmes ont complètement échoué aux tâches les plus complexes.
Les chercheurs suggèrent de remplacer le terme « inférence » par « imitation ». L’équipe soutient que ces modèles sont simplement efficaces pour mémoriser et reproduire des schémas. Mais lorsque la question change ou que la complexité augmente, ils deviennent quasiment inopérants.
En d'autres termes, les chatbots fonctionnent bien lorsqu'ils peuvent reconnaître et associer des schémas, mais dès que la tâche devient trop complexe, ils ne peuvent plus y faire face. « Les modèles de raisonnement à grande échelle (LRM) les plus performants subissent une perte totale de précision lorsque la complexité dépasse un certain seuil », indique l'étude.
Cela contredit les attentes des développeurs qui pensaient que la complexité s'améliorerait avec davantage de ressources. « L'effort d'inférence de l'IA augmente avec la complexité, mais seulement jusqu'à un certain point, puis diminue, même si le budget de jetons (puissance de calcul) reste suffisant », précise l'étude.
Le véritable avenir de l'IA
Gary Marcus, psychologue et auteur américain, a déclaré que les conclusions d'Apple étaient impressionnantes, mais pas vraiment nouvelles et qu'elles ne faisaient que confirmer des recherches antérieures. Le professeur émérite de psychologie et de neurosciences de l'université de New York a cité son étude de 1998 en exemple.
Dans cet ouvrage, il soutient que les réseaux neuronaux, précurseurs des grands modèles de langage, peuvent bien généraliser au sein de la distribution des données sur lesquelles ils ont été entraînés, mais s'effondrent souvent lorsqu'ils sont confrontés à des données en dehors de cette distribution.
Cependant, M. Marcus estime également que les modèles LLM et LRM ont tous deux leurs propres applications et sont utiles dans certains cas.
Dans le monde de la technologie, la superintelligence est considérée comme la prochaine étape du développement de l'IA, où les systèmes atteignent non seulement la capacité de penser comme les humains (AGI), mais excellent également en termes de vitesse, de précision et de niveau de conscience.
Malgré ses limitations majeures, même les détracteurs de l'IA s'empressent d'ajouter que le chemin vers la superintelligence informatique reste tout à fait possible.
![]() |
Bien plus qu'une simple alternative à Google ou un outil d'aide aux devoirs, l'IA, selon Sam Altman, PDG d'OpenAI, allait transformer le progrès de l'humanité. Photo : AA Photo. |
Selon Jorge Ortiz, professeur associé d'ingénierie au laboratoire de Rutgers, mettre en lumière les limitations actuelles pourrait indiquer aux entreprises spécialisées en IA comment les surmonter.
Ortiz a cité des exemples de nouvelles méthodes d'entraînement, comme la fourniture d'un retour d'information progressif sur les performances d'un modèle, l'ajout de ressources supplémentaires face à des problèmes difficiles, qui peuvent aider l'IA à s'attaquer à des problèmes plus importants et à mieux utiliser le logiciel sous-jacent.
Par ailleurs, Josh Wolfe, cofondateur de la société de capital-risque Lux Capital, estime que, d'un point de vue commercial, que les systèmes actuels soient capables de raisonner ou non, ils continueront de créer de la valeur pour les utilisateurs.
Ethan Mollick, professeur à l'Université de Pennsylvanie, a également exprimé sa conviction que les modèles d'IA surmonteront bientôt ces limitations.
« Les modèles s'améliorent de plus en plus et de nouvelles approches de l'IA sont constamment développées ; je ne serais donc pas surpris si ces limitations étaient surmontées dans un avenir proche », a déclaré Mollick.
Source : https://znews.vn/vi-sao-ai-chua-the-vuot-qua-tri-tue-con-nguoi-post1561163.html












Comment (0)