La versión preliminar del o3-mini se lanzó en diciembre de 2024 junto con el modelo o3. OpenAI ha sido criticado por ceder la carrera de la IA a empresas chinas como DeepSeek.

Los desarrolladores de ChatGPT promocionan el nuevo modelo como "potente" y "asequible". Un portavoz afirma que el o3-mini representa un paso importante para ampliar el acceso a la IA avanzada a más personas.

Openai CNET
OpenAI se enfrenta a una presión considerable por parte de sus competidores chinos. Foto: Cnet

A diferencia de otros modelos de lenguaje extensos, un modelo de inferencia como o3-mini se valida a sí mismo antes de entregar los resultados a los usuarios. Esto ayuda a evitar algunos de los inconvenientes de los modelos convencionales. Los modelos de inferencia proporcionan soluciones más lentas, pero más fiables (aunque imperfectas) en ámbitos como la física.

El o3-mini está optimizado para resolver problemas STEM ( ciencias , matemáticas y programación). OpenAI afirma que su potencia es comparable a la del o1 y el o1-mini, pero funciona más rápido y es más económico.

Programadores independientes calificaron las respuestas del o3-mini como mejores que las del o1-mini. Además, en preguntas difíciles del mundo real, el o3-mini cometió un 39 % menos de errores graves que el o1-mini y proporcionó respuestas más claras un 24 % más rápido.

El o3-mini está disponible para todos los usuarios de ChatGPT desde el 31 de enero, pero los usuarios de ChatGPT Plus y Team pueden realizar más consultas, hasta 150 al día. Los usuarios de ChatGPT Pro tienen uso ilimitado. El o3-mini estará disponible en ChatGPT Enterprise y ChatGPT Edu en una semana.

Los usuarios pagos de ChatGPT pueden seleccionar o3-mini en el menú desplegable de la aplicación, mientras que los usuarios gratuitos pueden hacer clic en el nuevo botón “Motivo” en el cuadro de chat.

El costo de o3-mini es de $0.55 por millón de tokens de entrada y $4.40 por millón de tokens de salida, donde 1 millón de tokens corresponde a aproximadamente 750,000 palabras. Esto es un 63% más económico que o1-mini y también competitivo con DeepSeek R1. DeepSeek cobra $0.14 por millón de tokens de entrada y $2.19 por millón de tokens de salida para R1.

En ChatGPT, el o-3 mini está configurado en modo de inferencia medio para equilibrar la velocidad de respuesta y la precisión. Los usuarios premium pueden elegir modos más altos, que ofrecen mejor calidad pero tiempos de respuesta más lentos. Independientemente de la versión utilizada, el modelo busca las respuestas más recientes y los enlaces relacionados.

(Según TechCrunch)