DeepSeek konzentriert sich auf die Forschung und Entwicklung neuer Modelle, anstatt stark in den Medien aufzutreten. Foto: SCMP . |
In Zusammenarbeit mit Forschern der Tsinghua-Universität hat DeepSeek eine neue Methode zur Verbesserung der Inferenzfähigkeiten großer Sprachmodelle (LLMs) eingeführt. Die in einem am 4. April veröffentlichten Forschungspapier vorgestellte Methode hilft LLMs, bessere und schnellere Ergebnisse für häufige Abfragen zu erzielen.
Diese Technik ist eine Kombination aus zwei früheren erfolgreichen Methoden von DeepSeek. Eine davon ist die Generative Belohnungsmodellierung (GRM), die es dem KI-Modell ermöglicht, seine Antworten basierend auf früheren Ergebnissen selbst zu bewerten und zu verfeinern, und die andere ist die selbstprinzipielle Kritikoptimierung.
Beide Methoden basieren auf dem „selbstlernenden“ Element der KI, wodurch die Abhängigkeit von direktem menschlichem Feedback oder Anleitung reduziert wird, jedoch der Wunsch besteht, Ergebnisse zu erzielen, die den menschlichen Erwartungen näher kommen.
Obwohl es sich bei DeepSeek-GRM um eine neue Methode handelt, erzielt es laut den Forschern immer noch eine herausragende Leistung und kann mit den bekanntesten und effektivsten KI-Modellen von heute mithalten. DeepSeek plant, seine GRM-Modelle als Open Source bereitzustellen, hat jedoch noch keinen konkreten Zeitplan angegeben.
Nachdem DeepSeek mit seinem V3-Plattformmodell und dem R1-Inferenzmodell weltweit für Aufsehen gesorgt hatte, veröffentlichte das Unternehmen dieses wissenschaftliche Papier im wissenschaftlichen Online-Repository arXiv und machte viele neugierig auf den nächsten Schritt des Unternehmens.
Reuters prognostiziert, dass DeepSeek-R2, der Nachfolger von R1, im April auf den Markt kommen könnte, da die Vorgängermodelle noch nicht ausgereift sind. Zuvor hatte DeepSeek-R1 die globale Technologiewelt mit seiner hervorragenden Leistung im Verhältnis zum Preis überrascht und war mit den führenden Modellen von heute durchaus konkurrenzfähig.
DeepSeek schweigt zu den Spekulationen. Lokalen Informationen zufolge hat ein DeepSeek-Kundendienstkonto die oben genannten Informationen jedoch in einer Chatgruppe mit Firmenkunden zurückgewiesen.
DeepSeek wurde 2023 vom Unternehmer Liang Wenfeng in Hangzhou gegründet und hat in den letzten Monaten schnell weltweite Aufmerksamkeit erregt. Doch statt aus dem öffentlichen Ruhm Kapital zu schlagen, konzentrierte das Unternehmen seine Ressourcen auf Forschung und Entwicklung.
Zuvor hat DeepSeek das V3-Modell aktualisiert und die Version DeepSeek-V3-0324 herausgebracht. Laut Ankündigung bietet dieses Update erweiterte Inferenzfunktionen, Optimierungen für die Front-End-Webentwicklung und verbesserte chinesische Schrift.
Im Februar hat das Start-up außerdem fünf Code-Repositories als Open Source freigegeben und damit sein Engagement für „Fortschritt mit voller Transparenz“ bekräftigt. Außerdem veröffentlichte das Unternehmen in diesem Monat ein technisches Dokument zum Thema „Native Sparse Attention“, das die Leistung von LLMs bei der Verarbeitung riesiger Datenmengen verbessert.
DeepSeek gilt als Symbol für die Widerstandsfähigkeit der chinesischen KI-Industrie angesichts der Bemühungen der USA, die technologische Entwicklung des Landes einzudämmen.
Quelle: https://znews.vn/deepseek-gay-to-mo-post1543900.html
Kommentar (0)