Am 12. September hat OpenAI eine Reihe neuer Modelle der künstlichen Intelligenz (KI) vorgestellt, die mehr Zeit zum Nachdenken aufwenden können, um den Benutzern genauere und nützlichere Antworten zu geben.
Die neuen Modelle, bekannt als OpenAI o1-Preview, sind für die Bewältigung komplexer Aufgaben und schwierigerer Probleme in den Naturwissenschaften , der Programmierung und der Mathematik konzipiert – Bereiche, in denen frühere Modelle oft dafür kritisiert wurden, dass sie keine konsistenten Antworten lieferten.
OpenAI o1-Preview wurde trainiert, um seinen Denkprozess zu verfeinern, verschiedene Ansätze zu testen und Fehler zu erkennen, bevor eine endgültige Antwort gefunden wird.
Sam Altman, CEO von OpenAI, bezeichnete die neuen Modelle als „zu komplexem Denken fähig“, auch wenn sie möglicherweise noch immer Mängel und Einschränkungen aufweisen.
Dementsprechend arbeitet OpenAI weiterhin daran, die Fähigkeiten von KI-Modellen zu verbessern, um das „Illusionsproblem“ zu überwinden – ein Phänomen, bei dem Chatbots überzeugende, aber ungenaue Inhalte erstellen.
Der OpenAI-Forscher Jerry Tworek sagte, das neue Modell sei weniger anfällig für das „Illusions“-Problem, löse das Problem jedoch noch nicht vollständig.
Es ist bekannt, dass OpenAI o1-Preview-Modelle schwierige Aufgaben in Physik, Chemie und Biologie auf Doktorandenniveau erfolgreich gelöst haben.
Insbesondere im Bereich Mathematik und Programmierung erreichte diese OpenAI o1-Preview beim Lösen der Fragen der Aufnahmeprüfung zur Internationalen Mathematik-Olympiade eine Genauigkeitsrate von bis zu 83 %. Diese Zahl ist deutlich höher als die 13 % des vorherigen GPT-4o-Modells.
Laut OpenAI könnten die neuen Denkfähigkeiten Forschern im Gesundheitswesen dabei helfen, Zellsequenzierungsdaten zu kommentieren, während das Tool Physikern bei der Entwicklung komplexer Formeln helfen könnte.
OpenAI sagte außerdem, dass die neuen KI-Modelle strenge Jailbreak-Tests bestanden hätten und gegen Versuche, Sicherheitsbarrieren zu umgehen, resistent seien.
Auch die Sicherheitsmaßnahmen wurden verstärkt, darunter kürzlich geschlossene Vereinbarungen mit dem AI Safety Institute in den USA und Großbritannien, dem frühzeitiger Zugriff auf diese Modelle zu Test- und Evaluierungszwecken gewährt wurde.
[Anzeige_2]
Quelle: https://laodong.vn/cong-nghe/openai-ra-mat-sieu-ai-moi-voi-kha-nang-lap-luan-1393825.ldo
Kommentar (0)