OpenAI veröffentlicht ein neues KI-Inferenzmodell – o3-mini –, während das Unternehmen unter Druck von DeepSeek gerät, einem aufstrebenden Konkurrenten aus China.
Die Vorschau des o3-Mini wurde im Dezember 2024 zusammen mit dem o3-Modell veröffentlicht. OpenAI wurde von einigen dafür kritisiert, das KI-Rennen an chinesische Unternehmen wie DeepSeek abzutreten.
Die Entwickler von ChatGPT preisen das neue Modell als „leistungsstark“ und „erschwinglich“ an. Ein Sprecher sagte, der o3-mini sei ein wichtiger Schritt, um mehr Menschen den Zugang zu fortschrittlicher KI zu ermöglichen.
Im Gegensatz zu anderen großen Sprachmodellen validiert sich ein Inferenzmodell wie o3-mini selbst, bevor es Ergebnisse an den Benutzer liefert. Dies hilft, einige der Fallstricke herkömmlicher Modelle zu vermeiden. Inferenzmodelle liefern langsamere, aber zuverlässigere – wenn auch unvollkommene – Lösungen in Bereichen wie der Physik.
Der o3-mini ist auf die Lösung von MINT-Problemen ( Naturwissenschaften , Mathematik, Programmierung) abgestimmt. OpenAI behauptet, dass er in Bezug auf die Leistung mit dem o1 und dem o1-mini vergleichbar ist, aber schneller arbeitet und günstiger ist.
Unabhängige Programmierer bewerteten die Antworten des o3-mini als besser als die des o1-mini. Darüber hinaus machte der o3-mini bei kniffligen Fragen aus der Praxis 39 % weniger „schwere Fehler“ als der o1-mini und lieferte 24 % schneller „klarere“ Antworten.
Der o3-mini ist ab dem 31. Januar für alle ChatGPT-Nutzer verfügbar. ChatGPT Plus- und Team-Nutzer können jedoch bis zu 150 Anfragen pro Tag stellen. ChatGPT Pro-Nutzer erhalten unbegrenzte Nutzung. Der o3-mini wird innerhalb einer Woche für ChatGPT Enterprise und ChatGPT Edu verfügbar sein.
Bezahlte ChatGPT-Benutzer können o3-mini aus dem Dropdown-Menü der App auswählen, während kostenlose Benutzer im Chat-Feld auf die neue Schaltfläche „Grund“ klicken.
Die Kosten für o3-mini betragen 0,55 $ pro 1 Million Eingabetoken und 4,40 $ pro 1 Million Ausgabetoken, wobei 1 Million Token etwa 750.000 Wörtern entsprechen. Das ist 63 % günstiger als o1-mini und konkurrenzfähig mit DeepSeek R1. DeepSeek berechnet für R1 0,14 $ pro 1 Million Eingabetoken und 2,19 $ pro 1 Million Ausgabetoken.
In ChatGPT ist der o-3 mini auf den mittleren Inferenzmodus eingestellt, um Reaktionsgeschwindigkeit und Genauigkeit auszugleichen. Premium-Nutzer können höhere Modi wählen, die eine bessere Qualität, aber langsamere Reaktionszeiten bieten. Unabhängig von der verwendeten Version sucht das Modell nach den neuesten Antworten und zugehörigen Links.
(Laut TechCrunch)
[Anzeige_2]
Quelle: https://vietnamnet.vn/openai-dap-tra-deepseek-bang-mo-hinh-moi-nhanh-hon-re-hon-2367636.html
Kommentar (0)