![]() |
Das DeepseekMath-V2-Modell erzielt beeindruckende Ergebnisse bei der Lösung mathematischer Probleme. Foto: Decoder . |
Deepseek hat soeben sein Modell DeepseekMath-V2 vorgestellt, das bei einer Reihe renommierter Mathematikwettbewerbe Goldmedaillen-Niveau erreicht hat. Damit tritt das chinesische Unternehmen in direkten Wettbewerb mit führenden US-amerikanischen KI-Laboren, die im Bereich des sprachmodellbasierten Schließens führend sind.
Laut der technischen Dokumentation erzielte DeepseekMath-V2 bei der Internationalen Mathematik-Olympiade (IMO) 2025 und der Chinesischen Mathematik-Olympiade (CMO) 2024 Ergebnisse auf Goldmedaillen-Niveau. Im Putnam-Wettbewerb erreichte das Modell 118 von 120 Punkten und übertraf damit die 90 Punkte des bisher besten menschlichen Teilnehmers deutlich. Diese Ergebnisse belegen seine Fähigkeit, komplexe Probleme zu lösen.
Das chinesische Unternehmen erklärte, dass die bisherigen KI-Modelle zwar korrekte Antworten liefern, aber keine gültigen Lösungsansätze präsentieren konnten. Um dies zu überwinden, verwendet DeepseekMath-V2 einen mehrstufigen Prozess, der die Bewertung der Korrektheit, die Prüfung auf Gegenargumente und die Präsentation des Endergebnisses umfasst. Diese Arbeitsweise ermöglicht es dem System, Lösungen in Echtzeit selbst zu überprüfen und zu verfeinern, wodurch Situationen vermieden werden, in denen zwar richtige Schlussfolgerungen gezogen, aber falsche Begründungen vorliegen.
Bemerkenswerterweise erwähnt die Dokumentation von Deepseek mit keinem Wort, dass das Modell externe Tools wie Computer oder Interpreter verwendet. Der Testaufbau zeigt, dass alle Ergebnisse ausschließlich in natürlicher Sprache generiert werden.
Deepseek betont, dass die Leistungssteigerungen auf der Fähigkeit zur Selbstkritik und Selbstkorrektur von Lösungen beruhen und nicht auf spezialisierter mathematischer Software. Bei komplexen Problemen skaliert das System die Berechnung, indem es mehrere Lösungen parallel generiert und so die Zuverlässigkeit des Endergebnisses erhöht.
Die Veröffentlichung von DeepseekMath-V2 erfolgte kurz nachdem OpenAI und Google DeepMind bekannt gegeben hatten, dass ihre unveröffentlichten Modelle ebenfalls Goldmedaillen bei der IMO gewonnen hatten – ein Erfolg, der zuvor für große Sprachmodelle unerreichbar schien. Informationen zu diesen Systemen sind derzeit jedoch sehr begrenzt. Ein Forscher von OpenAI gab lediglich an, dass in den kommenden Monaten eine mathematisch leistungsfähigere Version verfügbar sein wird.
Im Gegensatz zur Geheimhaltung amerikanischer Unternehmen hat Deepseek beschlossen, Details seiner Methoden und technischen Architektur zu veröffentlichen. Dieser Ansatz ermöglicht es dem Unternehmen, Transparenz zu demonstrieren und gleichzeitig Wettbewerbsdruck auf das amerikanische KI-Ökosystem auszuüben. Laut The Economist haben einige amerikanische Startups einen Wechsel zum kostengünstigen Open-Source-Modell aus China erwogen, um Kosten zu sparen.
Quelle: https://znews.vn/deepseek-pha-ky-luc-post1606990.html







Kommentar (0)