A prévia do o3-mini foi lançada em dezembro de 2024, juntamente com o modelo o3. A OpenAI foi criticada por alguns por ceder a corrida da IA ​​para empresas chinesas como a DeepSeek.

Os desenvolvedores do ChatGPT promovem o novo modelo como "poderoso" e "acessível". Um porta-voz diz que o o3-mini marca um passo importante na expansão do acesso à IA avançada para mais pessoas.

openai cnet
A OpenAI enfrenta pressão considerável de concorrentes chineses. Foto: Cnet

Ao contrário de outros modelos de linguagem de grande porte, um modelo de inferência como o o3-mini se autovalida antes de entregar os resultados aos usuários. Isso ajuda a evitar algumas das armadilhas dos modelos convencionais. Modelos de inferência fornecem soluções mais lentas, porém mais confiáveis ​​– embora imperfeitas – em domínios como a física.

O o3-mini foi desenvolvido para resolver problemas STEM ( ciências , matemática e programação). A OpenAI afirma que ele está no mesmo nível do o1 e do o1-mini em termos de potência, mas opera mais rápido e é mais barato.

Programadores independentes classificaram as respostas do o3-mini como melhores do que as do o1-mini. Além disso, em perguntas difíceis do mundo real, o o3-mini cometeu 39% menos "erros graves" do que o o1-mini e forneceu respostas "mais claras" 24% mais rápido.

O o3-mini estará disponível para todos os usuários do ChatGPT a partir de 31 de janeiro, mas usuários do ChatGPT Plus e Team poderão fazer mais consultas, até 150 consultas por dia. Usuários do ChatGPT Pro têm uso ilimitado. O o3-mini estará disponível no ChatGPT Enterprise e no ChatGPT Edu dentro de uma semana.

Usuários pagos do ChatGPT podem selecionar o3-mini no menu suspenso do aplicativo, enquanto usuários gratuitos clicam no novo botão “Motivo” na caixa de bate-papo.

O custo do o3-mini é de US$ 0,55/1 milhão de tokens de entrada e US$ 4,40/1 milhão de tokens de saída, sendo que 1 milhão de tokens corresponde a aproximadamente 750.000 palavras. Isso é 63% mais barato que o o1-mini e também competitivo com o DeepSeek R1. O DeepSeek cobra US$ 0,14/1 milhão de tokens de entrada e US$ 2,19/1 milhão de tokens de saída por R1.

No ChatGPT, o o-3 mini é configurado para o modo de inferência médio para equilibrar velocidade e precisão de resposta. Usuários premium podem escolher modos mais avançados, que oferecem melhor qualidade, mas tempos de resposta mais lentos. Independentemente da versão utilizada, o modelo busca as respostas mais recentes e links relacionados.

(De acordo com o TechCrunch)