Die Vorschau des o3-Mini wurde im Dezember 2024 zusammen mit dem o3-Modell veröffentlicht. OpenAI wurde von einigen dafür kritisiert, das KI-Rennen an chinesische Unternehmen wie DeepSeek abzutreten.

Die Entwickler von ChatGPT preisen das neue Modell als „leistungsstark“ und „erschwinglich“ an. Ein Sprecher sagte, der o3-mini sei ein wichtiger Schritt, um mehr Menschen den Zugang zu fortschrittlicher KI zu ermöglichen.

openai cnet
OpenAI steht unter erheblichem Druck chinesischer Konkurrenten. Foto: Cnet

Im Gegensatz zu anderen großen Sprachmodellen validiert sich ein Inferenzmodell wie o3-mini selbst, bevor es Ergebnisse an den Benutzer liefert. Dies hilft, einige der Fallstricke herkömmlicher Modelle zu vermeiden. Inferenzmodelle liefern langsamere, aber zuverlässigere – wenn auch unvollkommene – Lösungen in Bereichen wie der Physik.

Der o3-mini ist auf die Lösung von MINT-Problemen ( Naturwissenschaften , Mathematik, Programmierung) abgestimmt. OpenAI behauptet, dass er in Bezug auf die Leistung mit dem o1 und dem o1-mini vergleichbar ist, aber schneller arbeitet und günstiger ist.

Unabhängige Programmierer bewerteten die Antworten des o3-mini als besser als die des o1-mini. Darüber hinaus machte der o3-mini bei kniffligen Fragen aus der Praxis 39 % weniger „schwere Fehler“ als der o1-mini und lieferte 24 % schneller „klarere“ Antworten.

Der o3-mini ist ab dem 31. Januar für alle ChatGPT-Nutzer verfügbar. ChatGPT Plus- und Team-Nutzer können jedoch bis zu 150 Anfragen pro Tag stellen. ChatGPT Pro-Nutzer erhalten unbegrenzte Nutzung. Der o3-mini wird innerhalb einer Woche für ChatGPT Enterprise und ChatGPT Edu verfügbar sein.

Bezahlte ChatGPT-Benutzer können o3-mini aus dem Dropdown-Menü der App auswählen, während kostenlose Benutzer im Chat-Feld auf die neue Schaltfläche „Grund“ klicken.

Die Kosten für o3-mini betragen 0,55 $ pro 1 Million Eingabetoken und 4,40 $ pro 1 Million Ausgabetoken, wobei 1 Million Token etwa 750.000 Wörtern entsprechen. Das ist 63 % günstiger als o1-mini und konkurrenzfähig mit DeepSeek R1. DeepSeek berechnet für R1 0,14 $ pro 1 Million Eingabetoken und 2,19 $ pro 1 Million Ausgabetoken.

In ChatGPT ist der o-3 mini auf den mittleren Inferenzmodus eingestellt, um Reaktionsgeschwindigkeit und Genauigkeit auszugleichen. Premium-Nutzer können höhere Modi wählen, die eine bessere Qualität, aber langsamere Reaktionszeiten bieten. Unabhängig von der verwendeten Version sucht das Modell nach den neuesten Antworten und zugehörigen Links.

(Laut TechCrunch)