Förhandsvisningen av o3-mini släpptes i december 2024 tillsammans med o3-modellen. OpenAI har kritiserats av vissa för att ha avstått från AI-kapplöpningen till kinesiska företag som DeepSeek.

ChatGPT-utvecklare marknadsför den nya modellen som "kraftfull" och "prisvärd". En talesperson säger att o3-mini markerar ett viktigt steg i att utöka tillgången till avancerad AI för fler människor.

openai cnet
OpenAI står inför betydande press från kinesiska konkurrenter. Foto: Cnet

Till skillnad från andra stora språkmodeller validerar en inferensmodell som o3-mini sig själv innan resultat levereras till användarna. Detta hjälper till att undvika några av fallgroparna med konventionella modeller. Inferensmodeller ger långsammare men mer tillförlitliga – om än ofullkomliga – lösningar inom områden som fysik.

o3-mini är inställd för att lösa STEM-problem ( naturvetenskap , matematik, programmering). OpenAI hävdar att den är i nivå med o1 och o1-mini vad gäller kraft, men fungerar snabbare och är billigare.

Oberoende programmerare bedömde o3-minis svar som bättre än o1-minis. Dessutom, på verkliga knepiga frågor, gjorde o3-mini 39 % färre "större fel" än o1-mini, och gav "tydligare" svar 24 % snabbare.

o3-mini är tillgänglig för alla ChatGPT-användare från och med den 31 januari, men ChatGPT Plus- och Team-användare kan ställa fler frågor, upp till 150 frågor per dag. ChatGPT Pro-användare får obegränsad användning. o3-mini kommer att finnas tillgänglig på ChatGPT Enterprise och ChatGPT Edu inom en vecka.

Betalda ChatGPT-användare kan välja o3-mini från rullgardinsmenyn i appen, medan gratisanvändare klickar på den nya knappen "Anledning" i chattrutan.

Kostnaden för o3-mini är 0,55 USD/1 miljon input-tokens och 4,40 USD/1 miljon output-tokens, där 1 miljon tokens motsvarar cirka 750 000 ord. Detta är 63 % billigare än o1-mini och även konkurrenskraftigt med DeepSeek R1. DeepSeek tar 0,14 USD/1 miljon input-tokens och 2,19 USD/1 miljon output-tokens för R1.

I ChatGPT är o-3 mini inställd på medelhögt inferensläge för att balansera svarshastighet och noggrannhet. Premiumanvändare kan välja högre lägen, vilket ger bättre kvalitet men långsammare svarstider. Oavsett vilken version som används letar modellen efter de senaste svaren och relaterade länkar.

(Enligt TechCrunch)