Die Vorschau des o3-mini wurde im Dezember 2024 zusammen mit dem o3-Modell veröffentlicht. OpenAI wurde von einigen dafür kritisiert, das KI-Rennen chinesischen Unternehmen wie DeepSeek zu überlassen.

Die Entwickler von ChatGPT preisen das neue Modell als „leistungsstark“ und „erschwinglich“ an. Ein Sprecher sagte, der o3-mini sei ein wichtiger Schritt, um fortschrittliche KI für mehr Menschen zugänglich zu machen.

OpenAI CNET
OpenAI steht unter erheblichem Druck chinesischer Konkurrenten. Foto: Cnet

Im Gegensatz zu anderen großen Sprachmodellen validiert sich ein Inferenzmodell wie o3-mini selbst, bevor es Ergebnisse an Benutzer liefert. Dies hilft, einige der Fallstricke herkömmlicher Modelle zu vermeiden. Inferenzmodelle liefern langsamere, aber zuverlässigere – wenn auch unvollkommene – Lösungen in Bereichen wie der Physik.

Der o3-mini ist auf die Lösung von MINT-Problemen ( Naturwissenschaften , Mathematik, Programmierung) abgestimmt. OpenAI behauptet, dass er leistungsmäßig mit dem o1 und o1-mini vergleichbar ist, aber schneller und günstiger ist.

Unabhängige Programmierer bewerteten die Antworten des o3-mini als besser als die des o1-mini. Darüber hinaus machte der o3-mini bei kniffligen Fragen aus der Praxis 39 % weniger „schwere Fehler“ als der o1-mini und lieferte 24 % schneller „klarere“ Antworten.

o3-mini ist ab dem 31. Januar für alle ChatGPT-Nutzer verfügbar. ChatGPT Plus- und Team-Nutzer können jedoch bis zu 150 Anfragen pro Tag stellen. ChatGPT Pro-Nutzer haben unbegrenzte Nutzung. o3-mini wird innerhalb einer Woche für ChatGPT Enterprise und ChatGPT Edu verfügbar sein.

Bezahlte ChatGPT-Benutzer können o3-mini aus dem Dropdown-Menü der App auswählen, während kostenlose Benutzer im Chat-Feld auf die neue Schaltfläche „Grund“ klicken.

Die Kosten für o3-mini betragen 0,55 $ pro 1 Million Eingabe-Token und 4,4 $ pro 1 Million Ausgabe-Token, wobei 1 Million Token etwa 750.000 Wörtern entsprechen. Es ist 63 % günstiger als o1-mini und konkurrenzfähig mit DeepSeek R1. DeepSeek berechnet für R1 0,14 $ pro 1 Million Eingabe-Token und 2,19 $ pro 1 Million Ausgabe-Token.

In ChatGPT ist der o-3 mini auf den mittleren Inferenzmodus eingestellt, um Reaktionsgeschwindigkeit und Genauigkeit auszugleichen. Premium-Nutzer können den höheren Modus wählen, der eine bessere Qualität, aber langsamere Reaktionszeiten bietet. Unabhängig von der verwendeten Version sucht das Modell nach den neuesten Antworten und zugehörigen Links.

(Laut TechCrunch)