![]() |
L'information selon laquelle GPT-5 a résolu 10 problèmes d'Erdős est incorrecte. Photo : Bloomberg . |
OpenAI est critiqué après que certains de ses chercheurs ont affirmé que le modèle GPT-5 avait résolu dix problèmes d'Erdős jusque-là non résolus, avant de se rétracter en raison de fausses informations. Cet incident a soulevé des questions parmi les scientifiques quant à l'exactitude de la communication des résultats de recherche par le géant de l'IA.
L'histoire a commencé lorsque Kevin Weil, vice-président d'OpenAI, a publié sur X que GPT-5 « avait résolu 10 problèmes d'Erdős et progressé sur 11 autres ». Les problèmes d'Erdős sont des conjectures célèbres proposées par le mathématicien Paul Erdős, dont beaucoup sont restées sans solution pendant des décennies. Weil a décrit cette réussite comme une avancée majeure pour l'IA en mathématiques.
La publication a rapidement attiré l'attention, notamment de Demis Hassabis, PDG de Google DeepMind, qui l'a qualifiée d'« embarrassante ». Yann LeCun, responsable scientifique en IA chez Meta, a même ironisé en affirmant qu'OpenAI était « stimulé par sa propre obsession GPT ».
Le mathématicien Thomas Bloom, qui gère un site web compilant les problèmes d'Erdő, a par la suite contesté l'affirmation selon laquelle OpenAI avait résolu des problèmes non résolus. Il a déclaré que le mot « ouvert » sur son site web signifiait simplement qu'il ne connaissait pas personnellement la solution, et non que le problème n'avait jamais été résolu.
« GPT-5 vient de trouver des documents existants dont je ne connaissais pas l'existence », a déclaré Bloom.
Suite à une réaction négative de la communauté, les publications concernées ont été supprimées. Sébastien Bubeck, chercheur chez OpenAI et l'un des partisans de l'affirmation initiale, a reconnu que GPT-5 n'avait pas créé de nouvelles solutions, mais « seulement trouvé des documents contenant des solutions préexistantes ». Il a toutefois ajouté qu'il s'agissait d'un résultat remarquable, car il est très difficile de trouver des documents relatifs à des problèmes mathématiques complexes.
Cet incident met en lumière le problème de la communication scientifique dans le domaine de l'IA, où les affirmations exagérées ont plus de chances de se propager que les résultats de la recherche. Les experts estiment qu'OpenAI, sous la pression de la concurrence et de la commercialisation, doit redoubler de prudence pour éviter d'induire le public en erreur quant aux véritables capacités de ses modèles.
Derrière cette controverse se cache un point positif sur lequel de nombreux experts s'accordent : GPT-5 présente un réel potentiel pour soutenir la recherche mathématique. Le modèle peut analyser, classer et extraire des articles scientifiques pertinents, ce qui est particulièrement utile pour les sujets comportant des documents dispersés ou une terminologie complexe.
Le mathématicien Terence Tao estime que l'IA peut jouer le rôle d'« assistant de recherche mathématique », contribuant à réduire le temps de recherche d'informations et à explorer de nouvelles pistes dans d'énormes volumes de données académiques. Il souligne toutefois que l'IA ne peut remplacer l'expertise humaine, car la vérification, la synthèse et la compréhension de la nature du problème nécessitent toujours l'évaluation des chercheurs.
Source : https://znews.vn/openai-bi-chi-trich-post1595362.html
Comment (0)