Chinese bedrijven kunnen kosten besparen door modellen te bouwen die zijn getraind met kleinere hoeveelheden data. Hiervoor is minder computerkracht nodig, maar wel geoptimaliseerde hardware, aldus Lee Kai-Fu, oprichter van 01.ai en voormalig directeur van Google China.

Volgens de ranglijst die onlangs is gepubliceerd door UC Berkeley SkyLab en LMSYS, staat het Yi-Lingtning-model van startup 01.ai op de derde plaats, gelijk met Grok-2 van x.AI, achter OpenAI en Google. Deze ranglijst is gebaseerd op de scores van gebruikers op antwoorden op zoekopdrachten.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Het verlagen van de kosten van AI-operaties is een manier voor China om te concurreren met de VS. Foto: FT

01.ai en DeepSeek zijn Chinese AI-bedrijven die een strategie hanteren waarbij ze zich richten op kleinere datasets om modellen te trainen, terwijl ze goedkope, hooggekwalificeerde arbeidskrachten inhuren.

Volgens FT bedragen de inferentiekosten van Yi-Lightning 14 cent per miljoen tokens, vergeleken met 26 cent voor OpenAI's GPT o1-mini. GPT 4o kost daarentegen tot $ 4,40 per miljoen tokens. Het aantal tokens dat nodig is om een ​​antwoord te genereren, is afhankelijk van de complexiteit van elke query.

De oprichters van Yi-Lightning onthulden dat het bedrijf $ 3 miljoen had uitgegeven aan "initiële training", voordat het zich ging richten op verschillende use cases. Lee zei dat hun doel "niet was om het beste model te creëren", maar om een ​​concurrerend model te bouwen dat "5-10 keer goedkoper" was.

De methode die 01.ai, DeepSeek, MiniMax en Stepfun hebben toegepast, wordt 'expert modeling' genoemd - wat eenvoudigweg betekent dat meerdere neurale netwerken worden gecombineerd die zijn getraind op domeinspecifieke datasets.

Onderzoekers zien deze aanpak als een belangrijke manier om hetzelfde intelligentieniveau te bereiken als big data-modellen, maar met minder rekenkracht. Het probleem met deze aanpak is echter dat ingenieurs het trainingsproces moeten orkestreren met "meerdere experts" in plaats van met slechts één algemeen model.

Omdat de toegang tot geavanceerde AI-chips zo lastig is, zijn Chinese bedrijven overgestapt op de ontwikkeling van datasets van hoge kwaliteit. Deze datasets kunnen worden gebruikt om deskundige modellen te trainen. Daarmee concurreren ze met westerse concurrenten.

Lee zei dat 01.ai niet-traditionele manieren heeft om gegevens te verzamelen, zoals het scannen van boeken of het verzamelen van artikelen in de WeChat-berichtenapp die niet toegankelijk zijn op de openbare website.

De oprichter is ervan overtuigd dat China een betere positie heeft dan de VS, vanwege het grote aanbod aan goedkope technische talenten.

(Volgens FT, Bloomberg)

Meta lanceert 'zelflerend' AI-model De socialemediagigant Meta heeft zojuist een nieuw AI-model aangekondigd met een functie voor zelflerende evaluatie (STE), waarmee de menselijke tussenkomst in het AI-ontwikkelingsproces kan worden beperkt.