
Pour les PDG de la tech d'aujourd'hui, comme Dario Amodei d'Anthropic, Demis Hassabis de Google et Sam Altman d'OpenAI, il ne suffit pas de déclarer que leur IA est la meilleure. Tous trois ont récemment déclaré publiquement que l'IA serait bénéfique et transformerait fondamentalement la société.
Cependant, un groupe croissant de chercheurs, parmi ceux qui construisent, étudient et utilisent l’IA moderne, sont sceptiques face à de telles affirmations.
Le raisonnement de l’IA n’est pas omnipotent
Trois ans seulement après son lancement, l'intelligence artificielle a commencé à s'imposer dans de nombreuses activités quotidiennes, comme les études et le travail. Nombreux sont ceux qui craignent qu'elle ne puisse bientôt remplacer l'humain.
Cependant, les nouveaux modèles d'IA actuels ne sont pas aussi intelligents qu'on le pense. Une découverte d'Apple, l'une des plus grandes entreprises technologiques au monde , le prouve.
Plus précisément, dans une étude récemment publiée intitulée « Illusionary Thinking », l’équipe de recherche d’Apple affirme que les modèles d’inférence comme Claude, DeepSeek-R1 et o3-mini ne sont pas réellement « pilotés par le cerveau » comme leurs noms le suggèrent.
Le document d'Apple s'appuie sur des travaux antérieurs réalisés par de nombreux ingénieurs, ainsi que sur des recherches notables menées par des universitaires et d'autres grandes entreprises technologiques, notamment Salesforce.
Ces expériences montrent que les IA raisonnées — qui ont été saluées comme la prochaine étape vers des agents IA autonomes, et éventuellement vers la superintelligence — sont dans certains cas moins efficaces pour résoudre les problèmes que les chatbots IA de base qui les ont précédés.
![]() |
Une nouvelle étude d'Apple sur les modèles d'inférence à grande échelle montre que les modèles d'IA ne sont pas aussi intelligents qu'ils le paraissent. Photo : OpenAI. |
Dans l’étude également, qu’il s’agisse de chatbots d’IA ou de modèles d’inférence, tous les systèmes ont complètement échoué lors de tâches plus complexes.
Les chercheurs suggèrent de remplacer le mot « inférence » par « imitation ». L'équipe soutient que ces modèles sont simplement efficaces pour mémoriser et répéter des schémas. Mais lorsque les questions sont modifiées ou que leur complexité augmente, ils s'effondrent presque.
Plus simplement, les chatbots fonctionnent bien lorsqu'ils peuvent reconnaître et associer des modèles, mais une fois le problème trop complexe, ils ne peuvent plus le gérer. « Les modèles de raisonnement à grande échelle (MRL) de pointe souffrent d'un effondrement total de leur précision lorsque la complexité dépasse un certain seuil », note l'étude.
Cela va à l'encontre des attentes des développeurs, qui espéraient une amélioration de la complexité avec davantage de ressources. « L'effort d'inférence de l'IA augmente avec la complexité, mais seulement jusqu'à un certain point, puis diminue, même si le budget de jetons (puissance de calcul) est encore suffisant pour le gérer », ajoute l'étude.
Le véritable avenir de l'IA
Gary Marcus, psychologue et auteur américain, a déclaré que les résultats d'Apple étaient impressionnants, mais pas vraiment nouveaux et ne faisaient que renforcer des recherches antérieures. Le professeur émérite de psychologie et de neurosciences à l'Université de New York a cité son étude de 1998 en exemple.
Il y soutient que les réseaux neuronaux, précurseurs des grands modèles linguistiques, peuvent bien se généraliser au sein de la distribution des données sur lesquelles ils ont été formés, mais s'effondrent souvent lorsqu'ils sont confrontés à des données en dehors de la distribution.
Cependant, M. Marcus estime également que les modèles LLM et LRM ont leurs propres applications et sont utiles dans certains cas.
Dans le monde de la technologie, la superintelligence est considérée comme la prochaine étape du développement de l’IA, où les systèmes atteignent non seulement la capacité de penser comme les humains (AGI), mais excellent également en termes de vitesse, de précision et de niveau de conscience.
Malgré les limitations majeures, même les critiques de l’IA s’empressent d’ajouter que le voyage vers la superintelligence informatique est encore tout à fait possible.
![]() |
Plus qu'une simple alternative à Google ou un outil d'aide aux devoirs, Sam Altman, PDG d'OpenAI, a déclaré un jour que l'IA allait changer le progrès de l'humanité. Photo : AA Photo. |
Jorge Ortiz, professeur associé d'ingénierie au laboratoire Rutgers, a déclaré que l'exposition des limites actuelles pourrait montrer la voie aux entreprises d'IA pour les surmonter.
Ortiz a cité des exemples de nouvelles méthodes de formation comme le fait de donner un retour d'information progressif sur les performances d'un modèle, ou d'ajouter davantage de ressources face à des problèmes difficiles, qui peuvent aider l'IA à s'attaquer à des problèmes plus importants et à mieux utiliser le logiciel sous-jacent.
Pendant ce temps, Josh Wolfe, cofondateur de la société de capital-risque Lux Capital, estime que d'un point de vue commercial, que les systèmes actuels puissent raisonner ou non, ils créeront toujours de la valeur pour les utilisateurs.
Ethan Mollick, professeur à l’Université de Pennsylvanie, a également exprimé sa conviction que les modèles d’IA surmonteront bientôt ces limitations dans un avenir proche.
« Les modèles s’améliorent de plus en plus et de nouvelles approches de l’IA sont constamment développées. Je ne serais donc pas surpris si ces limitations étaient surmontées dans un avenir proche », a déclaré Mollick.
Source : https://znews.vn/vi-sao-ai-chua-the-vuot-qua-tri-tue-con-nguoi-post1561163.html
Comment (0)