In seinem Bericht gab DeepSeek an, dass die gesamten Schulungskosten 5,576 Millionen US-Dollar betrugen, was größtenteils auf die Mietkosten für die Grafikprozessoren von Nvidia zurückzuführen sei. Das Unternehmen weist außerdem darauf hin, dass diese Zahl lediglich die „formale Ausbildung“ widerspiegelt und nicht die Kosten für vorherige Forschung oder Experimente zu Architektur, Algorithmen und Daten beinhaltet. Dies zog sofort Investoren an und führte dazu, dass die Aktien globaler Technologieunternehmen an nur einem Tag, dem 27. Januar, 1.000 Milliarden USD „verdampften“.
Sind die Betriebskosten von DeepSeek viel höher als angegeben?
Nun bietet ein Bericht des Halbleiterforschungs- und Beratungsunternehmens SemiAnalysis einen neuen Blick auf die Entwicklungskosten von DeepSeek. Das Unternehmen schätzt, dass die Hardwareausgaben von DeepSeek viel höher sind als angegeben und betont, dass die Forschungs- und Entwicklungskosten (F&E) sowie die Gesamtbetriebskosten erheblich sind.
SemiAnalysis sagte, dass die Generierung „synthetischer Daten“ für Trainingsmodelle „erhebliche Rechenmengen“ erfordern würde. Darüber hinaus müssen Unternehmen experimentieren, neue Architekturen entwickeln, Daten sammeln und bereinigen und Mitarbeiter bezahlen.
Benötigt DeepSeek 50.000 GPUs statt nur etwas über 2.000 GPUs?
Berechnungen zufolge betreibt DeepSeek laut Experten ein Großrechnersystem aus etwa 50.000 Hopper-GPUs, 10.000 H800-GPUs und 10.000 leistungsstärkeren H100-GPUs sowie zusätzlichen H20-GPUs. Diese Zahl widerspricht der vorherigen Behauptung von DeepSeek, nur 2.048 Nvidia-GPUs zu verwenden. Die gesamten Investitionsausgaben für die Server werden auf 1,6 Milliarden US-Dollar geschätzt, während die Betriebskosten 944 Millionen US-Dollar betragen.
SemiAnalysis geht davon aus, dass DeepSeek 50.000 Nvidia-GPUs verwendet hat
DeepSeek wurde 2023 von Luong Van Phong, Mitbegründer von High-Flyer, einem auf KI spezialisierten Hedgefonds in China, gegründet. Das Startup ist im April 2023 aus der KI-Forschungseinheit des Fonds hervorgegangen, mit dem Ziel, große Sprachmodelle zu entwickeln und eine künstliche allgemeine Intelligenz (AGI) zu erreichen.
Das Interesse an DeepSeek stieg, als das Unternehmen R1 veröffentlichte, ein Argumentationsmodell, das mit o1 von OpenAI konkurriert, aber als Open Source angeboten wird, sodass es von jedem KI-Entwickler verwendet werden kann. Wie viele andere chinesische Chatbots weist DeepSeek jedoch auch bei bestimmten Themen Einschränkungen auf.
Sam Altman, CEO von OpenAI, lobte das Modell von DeepSeek und stellte fest, dass DeepSeek „eindeutig ein großartiges Modell“ sei. Er sagte jedoch auch, es gebe Hinweise darauf, dass DeepSeek die Daten von OpenAI gesammelt habe, um auf „destillierte“ Weise zu arbeiten.
[Anzeige_2]
Quelle: https://thanhnien.vn/chi-phi-phat-trien-deepseek-bi-tang-boc-185250203151508438.htm
Kommentar (0)