Le 12 septembre, OpenAI a lancé une série de nouveaux modèles d'intelligence artificielle (IA) capables de passer plus de temps à réfléchir afin de fournir des réponses plus précises et plus utiles aux utilisateurs.
Les nouveaux modèles, connus sous le nom d'OpenAI o1-Preview, sont conçus pour résoudre des tâches plus complexes et des problèmes difficiles en sciences , en programmation et en mathématiques — des domaines où les modèles précédents ont souvent été critiqués pour leur manque de cohérence dans les réponses.
OpenAI o1-Preview a été entraîné à affiner son processus de réflexion, à expérimenter différentes méthodes et à détecter les erreurs avant de fournir une réponse finale.
Sam Altman, PDG d'OpenAI, a qualifié les nouveaux modèles de dotés de « capacités de raisonnement complexes », même s'ils peuvent encore présenter de nombreuses lacunes et limitations.
Par conséquent, OpenAI travaille toujours à améliorer les capacités de ses modèles d'IA pour surmonter le problème des « hallucinations » – un phénomène où les chatbots créent un contenu persuasif mais inexact.
Selon Jerry Tworek, chercheur chez OpenAI, le nouveau modèle réduira les problèmes d'« illusion », mais ne les résout pas complètement.
Selon certaines sources, les modèles OpenAI o1-Preview ont réussi à résoudre des problèmes complexes dans les domaines de la physique, de la chimie et de la biologie avec un niveau d'expertise équivalent à celui des docteurs.
En particulier, dans les domaines des mathématiques et de la programmation, OpenAI o1-Preview a atteint un taux de précision de 83 % lors de la résolution de problèmes aux Olympiades internationales de mathématiques. Ce chiffre est nettement supérieur aux 13 % de précision du modèle GPT-4o précédent.
Selon OpenAI, cette nouvelle capacité de raisonnement pourrait aider les chercheurs en santé à annoter les données de séquençage cellulaire. Parallèlement, cet outil pourrait assister les physiciens dans l'élaboration de formules complexes.
OpenAI a également déclaré que les nouveaux modèles d'IA ont passé avec succès des tests de jailbreak rigoureux et peuvent résister aux tentatives de contournement des barrières de sécurité.
De plus, les mesures de sécurité ont été renforcées, notamment grâce à des accords récents avec les instituts de sécurité de l'IA des États-Unis et du Royaume-Uni, qui ont bénéficié d'un accès anticipé à ces modèles à des fins de test et d'évaluation.
Source : https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo






Comment (0)