Festlandunternehmen senken ihre Kosten, indem sie Modelle entwickeln, die auf kleineren Datenmengen trainiert werden und weniger Rechenleistung, dafür aber optimierte Hardware benötigen, sagt Lee Kai-Fu, Gründer von 01.ai und ehemaliger Chef von Google China.

Laut den kürzlich von UC Berkeley SkyLab und LMSYS veröffentlichten Rankings belegte das Yi-Lingtning-Modell des Startups 01.ai den dritten Platz, gleichauf mit Grok-2 von x.AI, hinter OpenAI und Google. Dieses Ranking basiert auf den Bewertungen der Benutzer für die Antworten auf Suchanfragen.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Durch die Senkung der Kosten für KI-Operationen kann China mit den USA konkurrieren. Foto: FT

01.ai und DeepSeek sind KI-Unternehmen vom Festland, die die Strategie verfolgen, sich beim Trainieren von Modellen auf kleinere Datensätze zu konzentrieren und gleichzeitig günstige, hochqualifizierte Arbeitskräfte einzustellen.

Laut FT betragen die Inferenzkosten von Yi-Lightning 14 Cent pro Million Token, verglichen mit 26 Cent für OpenAIs GPT o1-mini. GPT 4o kostet bis zu 4,40 Dollar pro Million Token. Die Anzahl der Token, die zur Generierung einer Antwort verwendet werden, hängt von der Komplexität der jeweiligen Abfrage ab.

Die Gründer von Yi-Lightning gaben bekannt, dass das Unternehmen 3 Millionen Dollar für die „Erstschulung“ ausgegeben habe, bevor es die Feinabstimmung für verschiedene Anwendungsfälle vornahm. Lee sagte, ihr Ziel sei es nicht, „das beste Modell zu entwickeln“, sondern ein Konkurrenzmodell zu bauen, das „fünf bis zehn Mal günstiger“ sei.

Die von 01.ai, DeepSeek, MiniMax und Stepfun angewandte Methode wird als „Expertenmodellierung“ bezeichnet. Dabei handelt es sich einfach um die Kombination mehrerer neuronaler Netzwerke, die anhand domänenspezifischer Datensätze trainiert wurden.

Forscher sehen in diesem Ansatz einen wichtigen Weg, um mit weniger Rechenleistung das gleiche Maß an Intelligenz wie bei Big-Data-Modellen zu erreichen. Die Schwierigkeit bei diesem Ansatz besteht jedoch darin, dass Ingenieure den Trainingsprozess mit „mehreren Experten“ orchestrieren müssen, anstatt nur mit einem allgemeinen Modell.

Aufgrund der Schwierigkeiten beim Zugang zu High-End-KI-Chips haben sich chinesische Unternehmen der Entwicklung hochwertiger Datensätze zugewandt, die zum Trainieren von Expertenmodellen verwendet werden können, und konkurrieren so mit westlichen Konkurrenten.

Lee sagte, 01.ai verfüge über nicht-traditionelle Methoden zum Sammeln von Daten, etwa das Scannen von Büchern oder das Sammeln von Artikeln in der WeChat-Messaging-App, die auf der offenen Website nicht zugänglich seien.

Der Gründer ist davon überzeugt, dass China mit seinem riesigen Pool an günstigen technischen Talenten besser aufgestellt sei als die USA.

(Laut FT, Bloomberg)

Meta bringt „selbstlernendes“ KI-Modell auf den Markt. Der Social-Media-Riese Meta hat gerade ein neues KI-Modell mit selbstlernender Evaluierungsfunktion (STE) angekündigt, das menschliche Eingriffe in den KI-Entwicklungsprozess eingrenzen kann.