De nombreux candidats ont indiqué que les questions de mathématiques étaient longues et difficiles à résoudre en 90 minutes. Cependant, cela n'a pas constitué un obstacle pour l'IA. Photo : Duy Hieu . |
Dans l'après-midi du 26 juin, les candidats ont passé l'épreuve de mathématiques de l'examen de fin d'études secondaires de 2025, en 90 minutes. Il s'agissait de la première épreuve depuis que le ministère de l'Éducation et de la Formation a mis en place un nouveau format, annoncé plus difficile que les années précédentes.
Bien que les problèmes de mathématiques de cette année puissent être difficiles pour les candidats en raison de leur longueur et de leur temps de traitement, les chatbots IA sont rapides à traiter. Pour tester l'efficacité de l'IA, Tri Thuc - Znews a utilisé quatre chatbots, dont ChatGPT, Google Gemini, Claude AI et Grok AI, pour résoudre certaines questions de dissertation de l'examen de fin d'études secondaires de cette année.
Traitement rapide, résultats « aléatoires »
Des chatbots ont été utilisés pour répondre aux questions courtes du test code 0109. Parmi eux, ChatGPT et Gemini ont fourni le plus grand nombre de réponses correctes avec le délai le plus court. Les deux chatbots ont répondu à six questions avec un temps de réponse de 7 à 15 secondes par question. Cependant, Gemini a pu résoudre les problèmes mentionnés ci-dessus grâce au modèle Flash 2.5 (sans raisonnement), qui permet un traitement rapide et complet.
Pendant ce temps, Claude échouait complètement dans ses calculs, donnant toutes les mauvaises réponses. Malgré une demande de recalcul, le chatbot d'Anthropic donnait toujours la même réponse. Grok répondait correctement à environ la moitié des questions, mais avec un temps de réponse long (plus de 2 minutes par question).
Pour ChatGPT et Grok, la résolution de ces questions nécessite la version inférence, qui prend beaucoup plus de temps. Gemini est très rapide, environ 5 secondes seulement pour la question la plus rapide, et utilise uniquement le modèle Flash 2.5.
ChatGPT présente le processus de réflexion de manière très vivante. |
En termes de rapidité, Gemini a obtenu le temps de traitement le plus rapide, avec une moyenne de moins de 10 secondes par problème, mais ses solutions étaient plus complexes, verbeuses et difficiles à suivre. Le modèle de raisonnement de ChatGPT suivait, avec une moyenne de 25 secondes. Parallèlement, tout en obtenant des résultats corrects, Grok a mis beaucoup de temps à raisonner, avec 148 secondes pour une question moyennement difficile.
Bien que les questions aient été posées en vietnamien, les trois modèles ont présenté leur raisonnement en anglais. ChatGPT proposait la description la plus concise, avec de nombreuses illustrations, des graphiques et des analyses faciles à comprendre. Gemini a également clarifié et présenté le raisonnement du modèle de manière ordonnée.
Grok, en particulier, possède le processus de pensée le plus humain. Le modèle utilise constamment le « cependant, attendez, d'un autre côté » pour se remettre en question, un peu comme le ferait un élève pour résoudre un problème de mathématiques. Cela peut amener le chatbot à trop réfléchir au problème et à ralentir son temps de réponse.
Il a fallu 148 secondes à Grok pour élaborer ses résultats. |
L'IA résout les problèmes mathématiques différemment des humains
Une étude d'Apple a révélé que les modèles d'inférence n'utilisent pas réellement leur cerveau, mais apprennent par cœur à partir des données disponibles. L'étude suggère également que l'IA a un processus de pensée complètement différent de celui des humains, et qu'elle tente donc d'imiter notre façon de résoudre un problème. Cependant, il est possible que le raisonnement ne soit qu'une invention du modèle.
Dans un contexte d'examen de fin d'études secondaires de plus en plus difficile et exigeant une grande capacité d'analyse, l'utilisation de l'IA à des fins de référence et d'apprentissage n'est plus une habitude pour les étudiants. Parmi les chatbots utilisés précédemment, ChatGPT et Gemini sont deux options adaptées aux autodidactes pour trouver des solutions à des problèmes complexes.
![]() |
Élèves de Hanoi lors de l'examen de fin d'études secondaires de 2025. Photo : Viet Ha . |
Cependant, bien que l'IA produise des résultats rapidement et facilement, son processus de raisonnement n'est pas encore pleinement compris par les développeurs. Dans un environnement universitaire, la capacité de réflexion humaine reste essentielle. M. Tuan Nguyen, maître de conférences dans une université internationale de Hô-Chi-Minh-Ville, a déclaré que l'utilisation de l'IA est normale, mais que les étudiants doivent comprendre les leçons, développer leur esprit critique et maîtriser des outils intelligents pour étudier plus efficacement.
M. Tran Manh Tung, directeur du département de mathématiques du lycée Newton, a indiqué que le format de l'examen était similaire à celui de l'examen blanc publié précédemment par le ministère de l'Éducation et de la Formation. « Cependant, à l'échelle, l'examen réel était plus difficile et plus différencié que l'examen blanc », a-t-il commenté.
L'examen de cette année se compose de trois parties correspondant à trois chiffres romains. Les deux premières sont des questions à choix multiples, faciles à obtenir pour les candidats, a expliqué M. Tung. Les autres sont des questions courtes, similaires à la dissertation d'il y a de nombreuses années, à la différence près que les candidats n'ont qu'à indiquer les résultats et n'ont pas à les présenter.
Source : https://znews.vn/ai-chi-mat-10-giay-de-giai-bai-toan-thi-tot-nghiep-thpt-post1563990.html
Comment (0)