Fastlandsföretag sänker kostnaderna genom att bygga modeller som är tränade på mindre mängder data, vilket kräver mindre datorkraft men optimerad hårdvara, säger Lee Kai-Fu, grundare av 01.ai och tidigare chef för Google China.

Enligt rankningarna som nyligen tillkännagavs av UC Berkeley SkyLab och LMSYS, rankades Yi-Lingtning-modellen av startupföretaget 01.ai på tredje plats, delad med Grok-2 från x.AI, efter OpenAI och Google. Denna ranking baseras på användarnas poäng för svar på frågor.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Att minska kostnaderna för AI-drift är ett sätt för Kina att konkurrera med USA. Foto: FT

01.ai och DeepSeek är AI-företag på fastlandet som antar en strategi att fokusera på mindre datamängder för att träna modeller, samtidigt som de anställer billig, högkvalificerad arbetskraft.

FT uppgav att Yi-Lightnings inferenskostnad är 14 cent per miljon tokens, jämfört med 26 cent för OpenAIs GPT o1-mini. Samtidigt kostar GPT 4o upp till 4,40 dollar per miljon tokens. Antalet tokens som används för att generera ett svar beror på komplexiteten hos varje fråga.

Yi-Lightnings grundare avslöjade att företaget spenderade 3 miljoner dollar på "inledande utbildning" innan de finjusterade för olika användningsområden. Lee sa att deras mål var "att inte skapa den bästa modellen", utan att bygga en konkurrerande modell som var "5–10 gånger billigare".

Metoden som 01.ai, DeepSeek, MiniMax och Stepfun har tillämpat kallas ”expertmodellering” – vilket helt enkelt innebär att kombinera flera neurala nätverk tränade på domänspecifika datamängder.

Forskare ser denna metod som ett viktigt sätt att uppnå samma intelligensnivå som stordatamodeller men med mindre datorkraft. Svårigheten med metoden är dock att ingenjörer måste orkestrera utbildningsprocessen med "flera experter" istället för bara en generell modell.

På grund av svårigheter att få tillgång till avancerade AI-chip har kinesiska företag vänt sig till att utveckla högkvalitativa datamängder, som kan användas för att träna expertmodeller och därmed konkurrera med västerländska rivaler.

Lee sa att 01.ai har icke-traditionella sätt att samla in data, som att skanna böcker eller samla in artiklar i WeChat-meddelandeappen som inte är tillgängliga på den öppna webbplatsen.

Grundaren anser att Kina är bättre positionerat än USA, med sin enorma pool av billig teknisk talang.

(Enligt Financial Times och Bloomberg)

Meta lanserar "självlärande" AI-modell Sociala mediejätten Meta har precis tillkännagivit en ny AI-modell med en funktion för självlärande utvärdering (STE), som kan begränsa mänsklig intervention i AI-utvecklingsprocessen.