Fastlandsselskaper kutter kostnader ved å bygge modeller trent på mindre mengder data, noe som krever mindre datakraft, men optimalisert maskinvare, sa Lee Kai-Fu, grunnlegger av 01.ai og tidligere leder av Google China.

Ifølge rangeringene som nylig ble annonsert av UC Berkeley SkyLab og LMSYS, rangerte Yi-Lingtning-modellen av oppstartsbedriften 01.ai på tredjeplass, delt med Grok-2 av x.AI, bak OpenAI og Google. Denne rangeringen er basert på brukernes poengsummer for svar på spørringer.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Å redusere kostnadene ved AI-drift er en måte Kina kan konkurrere med USA på. Foto: FT

01.ai og DeepSeek er AI-selskaper på fastlandet som har tatt i bruk en strategi der de fokuserer på mindre datasett for å trene modeller, samtidig som de ansetter billig og høyt kvalifisert arbeidskraft.

FT sa at Yi-Lightnings slutningskostnad er 14 cent per million tokens, sammenlignet med 26 cent for OpenAIs GPT o1-mini. Samtidig koster GPT 4o opptil 4,40 dollar per million tokens. Antall tokens som brukes til å generere et svar avhenger av kompleksiteten til hver spørring.

Grunnleggerne av Yi-Lightning avslørte at selskapet brukte 3 millioner dollar på «innledende opplæring» før de finjusterte for ulike brukstilfeller. Lee sa at målet deres «ikke var å lage den beste modellen», men å bygge en konkurrerende modell som var «5–10 ganger billigere».

Metoden som 01.ai, DeepSeek, MiniMax og Stepfun har brukt kalles «ekspertmodellering» – som ganske enkelt betyr å kombinere flere nevrale nettverk trent på domenespesifikke datasett.

Forskere ser denne tilnærmingen som en viktig måte å oppnå samme intelligensnivå som stordatamodeller, men med mindre datakraft. Vanskeligheten med tilnærmingen er imidlertid at ingeniører må orkestrere opplæringsprosessen med «flere eksperter» i stedet for bare én generell modell.

På grunn av vanskeligheter med å få tilgang til avanserte AI-brikker, har kinesiske selskaper vendt seg til å utvikle datasett av høy kvalitet, som kan brukes til å trene ekspertmodeller, og dermed konkurrere med vestlige rivaler.

Lee sa at 01.ai har ikke-tradisjonelle måter å samle inn data på, som å skanne bøker eller samle inn artikler på WeChat-meldingsappen som ikke er tilgjengelige på det åpne nettstedet.

Grunnleggeren mener at Kina er bedre posisjonert enn USA, med sin enorme mengde billige tekniske talenter.

(Ifølge FT og Bloomberg)

Meta lanserer «selvlærende» AI-modell Sosiale medier-giganten Meta har nettopp annonsert en ny AI-modell med en funksjon for selvlærende evaluering (STE), som kan begrense menneskelig inngripen i AI-utviklingsprosessen.