El 12 de septiembre, OpenAI lanzó una serie de nuevos modelos de inteligencia artificial (IA) capaces de dedicar más tiempo a pensar para ofrecer respuestas más precisas y beneficiosas a los usuarios.
Los nuevos modelos, conocidos como OpenAI o1-Preview, están diseñados para resolver tareas más complejas y problemas desafiantes en ciencia , codificación y matemáticas, campos en los que los modelos anteriores a menudo han sido criticados por no proporcionar respuestas consistentes.
OpenAI o1-Preview fue entrenado para afinar su proceso de pensamiento, experimentar con diferentes métodos y detectar errores antes de proporcionar una respuesta final.
Sam Altman, CEO de OpenAI, evaluó los nuevos modelos como poseedores de “capacidades de razonamiento complejas”, aunque aún pueden tener muchas deficiencias y limitaciones.
En consecuencia, OpenAI sigue trabajando para mejorar las capacidades de sus modelos de IA para superar el problema de la “alucinación”, un fenómeno en el que los chatbots crean contenido persuasivo pero inexacto.
El investigador de OpenAI Jerry Tworek dijo que el nuevo modelo causará menos problemas de "ilusión", pero no resuelve el problema por completo.
Según se informa, los modelos OpenAI o1-Preview han resuelto con éxito requisitos desafiantes en los campos de la física, la química y la biología con un nivel de experiencia equivalente al de los doctores.
En particular, en las áreas de matemáticas y programación, OpenAI o1-Preview alcanzó una precisión de hasta el 83 % al resolver problemas en la Olimpiada Internacional de Matemáticas. Esta cifra es significativamente superior a la precisión del 13 % del modelo GPT-4o anterior.
Según OpenAI, esta nueva capacidad de razonamiento podría ayudar a los investigadores del sector salud a anotar datos de secuenciación celular. Simultáneamente, la herramienta podría ayudar a los físicos a desarrollar fórmulas complejas.
OpenAI también afirmó que los nuevos modelos de IA han pasado rigurosas pruebas de jailbreak y pueden resistir los intentos de eludir las barreras de seguridad.
Además, se han reforzado las medidas de seguridad, incluidos acuerdos recientes con los Institutos de Seguridad de IA de Estados Unidos y el Reino Unido, a los que se les ha concedido acceso anticipado a estos modelos para realizar pruebas y evaluaciones.
[anuncio_2]
Fuente: https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo






Kommentar (0)