Le 12 septembre, OpenAI a lancé une série de nouveaux modèles d’intelligence artificielle (IA) capables de passer plus de temps à réfléchir pour fournir des réponses plus précises et plus bénéfiques aux utilisateurs.
Les nouveaux modèles, connus sous le nom d'OpenAI o1-Preview, sont conçus pour s'attaquer à des tâches complexes et à des problèmes plus difficiles dans les domaines des sciences , du codage et des mathématiques, des domaines dans lesquels les modèles précédents ont souvent été critiqués pour ne pas avoir fourni de réponses cohérentes.
OpenAI o1-Preview a été formé pour affiner son processus de réflexion, tester différentes approches et repérer les erreurs avant de proposer une réponse finale.
Sam Altman, PDG d’OpenAI, a qualifié les nouveaux modèles de « capables de raisonnement complexe », même s’ils peuvent encore présenter de nombreuses lacunes et limitations.
En conséquence, OpenAI travaille toujours à améliorer les capacités des modèles d'IA pour surmonter le problème de « l'illusion » - un phénomène lorsque les chatbots créent un contenu convaincant mais inexact.
Jerry Tworek, chercheur chez OpenAI, a déclaré que le nouveau modèle serait moins sujet au problème de « l'illusion », mais qu'il ne le résoudrait toujours pas complètement.
Il est connu que les modèles OpenAI o1-Preview ont résolu avec succès des exigences difficiles dans les domaines de la physique, de la chimie et de la biologie au niveau des doctorats.
En particulier, dans le domaine des mathématiques et du codage, cet OpenAI o1-Preview a atteint un taux de précision allant jusqu'à 83 % lors de la résolution des questions d'examen de l'Olympiade internationale de mathématiques. Ce taux est bien supérieur aux 13 % du modèle GPT-4o précédent.
Selon OpenAI, les nouvelles capacités de raisonnement pourraient aider les chercheurs en santé à annoter les données de séquençage cellulaire, tandis que l'outil pourrait également aider les physiciens à développer des formules complexes.
OpenAI a également déclaré que les nouveaux modèles d'IA ont passé des tests de jailbreak rigoureux et peuvent résister aux tentatives de contournement des barrières de sécurité.
Les mesures de sécurité ont également été renforcées, notamment grâce à des accords récents avec l'AI Safety Institute des États-Unis et du Royaume-Uni, qui a bénéficié d'un accès anticipé à ces modèles à des fins de test et d'évaluation.
Source: https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo
Comment (0)