Teknologigigantene Alibaba, Baidu og ByteDance kjemper om å undergrave kostnadene for «inferens»-AI, og tilbyr priser som er 90 % lavere enn de som tilbys av deres amerikanske motparter.
Fastlandsselskaper kutter kostnader ved å bygge modeller trent på mindre mengder data, noe som krever mindre datakraft, men optimalisert maskinvare, sa Lee Kai-Fu, grunnlegger av 01.ai og tidligere leder av Google China.
Ifølge rangeringene som nylig ble annonsert av UC Berkeley SkyLab og LMSYS, rangerte Yi-Lingtning-modellen av oppstartsbedriften 01.ai på tredjeplass, delt med Grok-2 av x.AI, bak OpenAI og Google. Denne rangeringen er basert på brukernes poengsummer for svar på spørringer.

01.ai og DeepSeek er AI-selskaper på fastlandet som har tatt i bruk en strategi der de fokuserer på mindre datasett for å trene modeller, samtidig som de ansetter billig og høyt kvalifisert arbeidskraft.
FT sa at Yi-Lightnings slutningskostnad er 14 cent per million tokens, sammenlignet med 26 cent for OpenAIs GPT o1-mini. Samtidig koster GPT 4o opptil 4,40 dollar per million tokens. Antall tokens som brukes til å generere et svar avhenger av kompleksiteten til hver spørring.
Grunnleggerne av Yi-Lightning avslørte at selskapet brukte 3 millioner dollar på «innledende opplæring» før de finjusterte for ulike brukstilfeller. Lee sa at målet deres «ikke var å lage den beste modellen», men å bygge en konkurrerende modell som var «5–10 ganger billigere».
Metoden som 01.ai, DeepSeek, MiniMax og Stepfun har brukt kalles «ekspertmodellering» – som ganske enkelt betyr å kombinere flere nevrale nettverk trent på domenespesifikke datasett.
Forskere ser denne tilnærmingen som en viktig måte å oppnå samme intelligensnivå som stordatamodeller, men med mindre datakraft. Vanskeligheten med tilnærmingen er imidlertid at ingeniører må orkestrere opplæringsprosessen med «flere eksperter» i stedet for bare én generell modell.
På grunn av vanskeligheter med å få tilgang til avanserte AI-brikker, har kinesiske selskaper vendt seg til å utvikle datasett av høy kvalitet, som kan brukes til å trene ekspertmodeller, og dermed konkurrere med vestlige rivaler.
Lee sa at 01.ai har ikke-tradisjonelle måter å samle inn data på, som å skanne bøker eller samle inn artikler på WeChat-meldingsappen som ikke er tilgjengelige på det åpne nettstedet.
Grunnleggeren mener at Kina er bedre posisjonert enn USA, med sin enorme mengde billige tekniske talenter.
(Ifølge FT og Bloomberg)
[annonse_2]
Kilde: https://vietnamnet.vn/trung-quoc-giam-90-chi-phi-ai-suy-luan-so-voi-my-2334520.html






Kommentar (0)