(CLO) Das chinesische KI-Startup DeepSeek hat gerade Daten zu Kosten und Umsatz seiner beliebten Modelle V3 und R1 veröffentlicht.
Der Aussage zufolge kann die theoretische Kapitalrendite von DeepSeek 545 % pro Tag erreichen. Das Unternehmen weist jedoch darauf hin, dass der tatsächliche Umsatz deutlich niedriger ausfallen wird.
Deepseek wächst stark, insbesondere in seinem Heimatland China. Foto: X
Dies ist das erste Mal, dass DeepSeek Informationen zum Return on Inference Tasks veröffentlicht hat. Dabei handelt es sich um die Phase nach dem Training, in der trainierte KI-Modelle Aufgaben wie Chatbots ausführen, die Benutzerfragen beantworten.
Die Enthüllung könnte Schockwellen durch den Markt für KI-Aktien außerhalb Chinas schicken, der im Januar eingebrochen war, nachdem Chatbots auf Basis der Modelle R1 und V3 von DeepSeek weltweit an Popularität gewonnen hatten.
Der Ausverkauf war teilweise auf die Ankündigung von DeepSeek zurückzuführen, weniger als 6 Millionen Dollar für Nvidia H800-Chips zum Trainieren seiner Modelle ausgegeben zu haben – weit weniger als US-Konkurrenten wie OpenAI. Die von DeepSeek verwendeten H800-Chips sind zudem weniger leistungsfähig als die Chips, auf die OpenAI und andere US-KI-Unternehmen Zugriff haben. Dies weckt bei Investoren Zweifel an der Bereitschaft amerikanischer KI-Unternehmen, Milliarden für fortschrittliche Chips auszugeben.
Bei einer Miete von 2 US-Dollar pro Stunde für einen H800-Chip belaufen sich die täglichen Gesamtkosten für die Inferenz der Modelle V3 und R1 auf 87.072 US-Dollar, so DeepSeek in einem GitHub-Beitrag vom 1. März. Der theoretische Tagesumsatz der beiden Modelle beträgt 562.027 US-Dollar, was einer Kapitalrendite von 545 % entspricht. Auf das Jahr hochgerechnet läge der Umsatz bei über 200 Millionen US-Dollar.
DeepSeek betont jedoch, dass der tatsächliche Umsatz deutlich geringer sei, da die Kosten für die Nutzung des V3-Modells niedriger seien als bei R1. Darüber hinaus zahlen Entwickler außerhalb der Spitzenzeiten weniger.
Zusätzlich zu den Informationen zur Gewinnspanne hat DeepSeek gerade technische Details zur Entwicklung des R1-Inferenzmodells bekannt gegeben, das die Leistung von OpenAIs o1 zu einem Bruchteil der üblichen Kosten bietet, ein Schritt, der den weltweiten Fortschritt auf diesem Gebiet beschleunigen dürfte.
Chinesische Unternehmen, von Chipherstellern bis hin zu Cloud-Anbietern, unterstützen die KI-Modelle von DeepSeek. Moore Threads und Hygon Information Technology, KI-Chiphersteller mit Ambitionen, mit Nvidia zu konkurrieren, geben an, dass ihre Computercluster und Beschleuniger die Modelle R1 und V3 von DeepSeek unterstützen können.
Huawei Technologies ist außerdem eine Partnerschaft mit dem KI-Infrastruktur-Startup SiliconFlow eingegangen, um Kunden DeepSeek-Modelle in der Cloud bereitzustellen, deren Leistung mit der von Modellen vergleichbar ist, die auf globalen High-End-Chips laufen.
Auch andere große Unternehmen wie Alibaba, Baidu und Tencent arbeiten daran, die Modelle von DeepSeek über ihre Dienste zugänglich zu machen. Der Erfolg von DeepSeek hat das Startup und seinen Gründer Liang Wenfeng zu Berühmtheiten gemacht.
Cao Phong (laut CNBC, CNN, SCMP)
[Anzeige_2]
Quelle: https://www.congluan.vn/deepseek-tuyen-bo-ty-le-chi-phi-loi-nhuan-ly-thuyet-la-545-moi-ngay-post336849.html
Kommentar (0)