DeepSeek gab in seinem Bericht an, dass die gesamten Schulungskosten 5,576 Millionen US-Dollar betrugen, hauptsächlich aufgrund der Mietkosten für Nvidias Grafikprozessoren. Das Unternehmen wies zudem darauf hin, dass diese Zahl lediglich die „formale Schulung“ widerspiegele und keine Kosten für vorherige Forschung oder Experimente zu Architektur, Algorithmen und Daten berücksichtige. Dies zog sofort Investoren an und führte dazu, dass globale Technologieaktien am 27. Januar an nur einem Tag 1.000 Milliarden US-Dollar an Wert verloren.
Sind die Betriebskosten von DeepSeek viel höher als angegeben?
Ein Bericht des Halbleiterforschungs- und Beratungsunternehmens SemiAnalysis bietet nun eine andere Sicht auf die Entwicklungskosten von DeepSeek. Das Unternehmen schätzt die Hardware-Ausgaben von DeepSeek deutlich höher ein als angegeben und weist darauf hin, dass die Forschungs- und Entwicklungs- sowie die Gesamtbetriebskosten erheblich waren.
SemiAnalysis erklärte, dass die Generierung „synthetischer Daten“ für Trainingsmodelle „erhebliche Rechenleistung“ erfordern würde. Darüber hinaus müssten Unternehmen experimentieren, neue Architekturen entwickeln, Daten sammeln und bereinigen sowie Mitarbeiter bezahlen.
Benötigt DeepSeek 50.000 GPUs statt nur etwas über 2.000 GPUs?
Den Berechnungen zufolge betreibt DeepSeek laut Experten ein Großrechnersystem mit rund 50.000 Hopper-GPUs, 10.000 H800-GPUs, 10.000 leistungsstärkeren H100-GPUs sowie zusätzlichen H20-GPUs. Diese Zahl widerspricht DeepSeeks vorheriger Aussage, lediglich 2.048 Nvidia-GPUs zu verwenden. Die Gesamtinvestitionen für den Server werden auf rund 1,6 Milliarden US-Dollar geschätzt, während die Betriebskosten bis zu 944 Millionen US-Dollar betragen.
SemiAnalysis geht davon aus, dass DeepSeek 50.000 Nvidia-GPUs verwendet hat
DeepSeek wurde 2023 von Liang Wenfeng, Mitbegründer von High-Flyer, einem chinesischen Hedgefonds mit Schwerpunkt auf KI, gegründet. Das Startup ging im April 2023 aus der KI-Forschungseinheit des Fonds hervor und hatte das Ziel, große Sprachmodelle zu entwickeln und künstliche allgemeine Intelligenz (AGI) zu erreichen.
Das Interesse an DeepSeek wuchs, als das Unternehmen R1 veröffentlichte, ein Schlussfolgerungsmodell, das mit OpenAIs o1 konkurriert, aber Open Source ist und daher von jedem KI-Entwickler genutzt werden kann. Wie viele andere chinesische Chatbots weist auch DeepSeek Einschränkungen bei bestimmten Themen auf.
OpenAI-CEO Sam Altman lobte das Modell von DeepSeek und stellte fest, dass DeepSeek „eindeutig ein großartiges Modell“ sei. Er sagte jedoch auch, es gebe Hinweise darauf, dass DeepSeek die Daten von OpenAI gesammelt habe, um auf „destillierte“ Weise zu arbeiten.
[Anzeige_2]
Quelle: https://thanhnien.vn/chi-phi-phat-trien-deepseek-bi-tang-boc-185250203151508438.htm
Kommentar (0)