Festlandchinesische Unternehmen senken die Kosten, indem sie Modelle entwickeln, die mit kleineren Datenmengen trainiert werden und daher weniger Rechenleistung, aber optimierte Hardware benötigen, sagte Lee Kai-Fu, Gründer von 01.ai und ehemaliger Leiter von Google China.

Laut dem kürzlich von UC Berkeley SkyLab und LMSYS veröffentlichten Ranking belegt das Yi-Lingtning-Modell des Startups 01.ai den dritten Platz, gleichauf mit Grok-2 von x.AI, hinter OpenAI und Google. Dieses Ranking basiert auf den Nutzerbewertungen der Antworten auf Suchanfragen.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Die Senkung der Kosten für KI-Anwendungen ist für China ein Weg, mit den USA zu konkurrieren. Foto: FT

01.ai und DeepSeek sind KI-Unternehmen vom chinesischen Festland, die eine Strategie verfolgen, sich auf kleinere Datensätze zum Trainieren von Modellen zu konzentrieren und gleichzeitig billige, hochqualifizierte Arbeitskräfte einzustellen.

Laut FT belaufen sich die Inferenzkosten von Yi-Lightning auf 14 Cent pro Million Token, verglichen mit 26 Cent bei OpenAIs GPT o1-mini. GPT 4o hingegen kostet bis zu 4,40 US-Dollar pro Million Token. Die Anzahl der zur Generierung einer Antwort benötigten Token hängt von der Komplexität der jeweiligen Anfrage ab.

Die Gründer von Yi-Lightning gaben bekannt, dass das Unternehmen 3 Millionen US-Dollar für die anfängliche Schulung ausgab, bevor es das Modell für verschiedene Anwendungsfälle optimierte. Lee erklärte, ihr Ziel sei nicht gewesen, „das beste Modell zu entwickeln“, sondern ein konkurrenzfähiges Modell zu bauen, das „5- bis 10-mal günstiger“ sei.

Die von 01.ai, DeepSeek, MiniMax und Stepfun angewandte Methode wird als „Expertenmodellierung“ bezeichnet – was einfach bedeutet, mehrere neuronale Netze zu kombinieren, die auf domänenspezifischen Datensätzen trainiert wurden.

Forscher sehen in diesem Ansatz einen Schlüsselweg, um mit weniger Rechenleistung dieselbe Intelligenz wie Big-Data-Modelle zu erreichen. Die Schwierigkeit dieses Ansatzes besteht jedoch darin, dass Ingenieure den Trainingsprozess mit mehreren Experten orchestrieren müssen, anstatt nur ein allgemeines Modell zu verwenden.

Aufgrund der Schwierigkeiten beim Zugang zu High-End-KI-Chips haben sich chinesische Unternehmen der Entwicklung hochwertiger Datensätze zugewandt, die zum Trainieren von Expertenmodellen verwendet werden können, um so mit westlichen Konkurrenten konkurrieren zu können.

Lee sagte, 01.ai verwende unkonventionelle Methoden zur Datenerfassung, wie das Scannen von Büchern oder das Sammeln von Artikeln in der Messaging-App WeChat, die auf der offenen Website nicht zugänglich sind.

Der Gründer ist der Ansicht, dass China mit seinem riesigen Pool an billigen technischen Fachkräften besser positioniert ist als die USA.

(Laut FT, Bloomberg)

Meta bringt ein „selbstlernendes“ KI-Modell auf den Markt . Der Social-Media-Riese Meta hat soeben ein neues KI-Modell mit einer selbstlernenden Bewertungsfunktion (STE) angekündigt, die den menschlichen Eingriff in den KI-Entwicklungsprozess verringern kann.