Meta, selskapet som eier Facebook, tester sin første interne brikke for trening av kunstig intelligens (KI)-systemer, en milepæl i deres forsøk på å designe flere tilpassede brikker og redusere avhengigheten av leverandører som Nvidia.
Estimert investeringsbudsjett på 119 milliarder USD
Verdens største sosiale medieselskap, Meta, har startet småskalatesting med brikken og planlegger å øke produksjonen for bredere bruk hvis forsøket lykkes.
Meta, selskapet som eier Facebook, tester sin første interne brikke for trening av kunstig intelligens (KI)-systemer.
Presset for å utvikle interne brikker er en del av Metas langsiktige plan for å redusere de massive infrastrukturkostnadene, ettersom selskapet satser stort på AI-verktøy for å stimulere veksten.
Meta, som også eier Instagram og WhatsApp, anslår at de totale utgiftene i 2025 vil ligge mellom 114 og 119 milliarder dollar, inkludert opptil 65 milliarder dollar i kapitalutgifter, i stor grad drevet av investeringer i AI-infrastruktur.
Metas nye treningsbrikke er en dedikert akselerator, som betyr at den er designet for å håndtere spesifikke AI-oppgaver, sa en kilde. Dette gjør den mer energieffektiv enn de integrerte grafikkprosessorene (GPU-ene) som vanligvis brukes til AI-arbeidsbelastninger.
Ifølge kilden samarbeider Meta med verdens største kontraktsprodusent av brikker, TSMC, for å produsere denne brikken.
Testutplasseringen startet etter at Meta fullførte sin første «tape-out» av brikken, en viktig milepæl i silisiumbrikkeutvikling som innebærer å sende den første designen gjennom et brikkeproduksjonsanlegg. En typisk tape-out-prosess koster titalls millioner dollar og tar omtrent tre til seks måneder å fullføre, uten garanti for at testen vil lykkes. Hvis den mislykkes, må Meta diagnostisere problemet og gjenta tape-out-trinnet.
Brikken er den nyeste i selskapets Meta Training and Inference Accelerator (MTIA)-linje, et program som har hatt en vanskelig start gjennom årene og har sett en brikke kansellert på et lignende utviklingsstadium.
I fjor begynte imidlertid Meta å bruke en MTIA-brikke for å utføre inferens, som er prosessen med å kjøre et AI-system når brukere samhandler med det, for anbefalingssystemer som bestemmer hvilket innhold som vises i Facebook- og Instagram-nyhetsfeeder.
Meta planlegger å bruke interne treningsbrikker innen 2026
Meta-ledere sier at de ønsker å begynne å bruke interne brikker innen 2026 til opplæring, den beregningsintensive prosessen med å mate et AI-system med enorme mengder data for å «lære» det hvordan det skal operere.
Meta-ledere sier at de ønsker å begynne å bruke interne brikker til trening innen 2026.
Som med inferensbrikken er målet med treningsbrikken å starte med anbefalingssystemer og deretter bruke den til generative AI-produkter som Meta AI-chatboten, sa ledere. «Vi ser på hvordan vi trener for anbefalingssystemer, og deretter hvordan vi tenker på trening og inferens for generativ AI», sa Metas produktsjef Chris Cox på Morgan Stanleys teknologi-, media- og telekommunikasjonskonferanse forrige uke.
Mr. Cox beskrev Metas brikkeutviklingsarbeid som «en gå-kryp-og-løp-situasjon» så langt, men sa at lederne anså den første generasjons inferensbrikke for anbefalingssystemer som «en stor suksess».
Meta kansellerte tidligere en egenutviklet, tilpasset inferensbrikke etter at den mislyktes i en liten pilotutplassering som ligner på den nåværende for treningsbrikken, og gikk i stedet tilbake til å bestille GPU-er for milliarder av dollar fra Nvidia i 2022.
Sosialemedieselskapet har siden den gang vært en av Nvidias største kunder, og har samlet en flåte av GPU-er for å trene modellene sine, inkludert anbefalings- og annonseringssystemer og Llama-familien av plattformmodeller. Disse enhetene utfører også inferens for de mer enn 3 milliarder menneskene som bruker appene deres hver dag.
Verdien av disse GPU-ene har blitt stilt spørsmål ved i år ettersom AI-forskere har blitt stadig mer skeptiske til hvor mye ytterligere fremgang som kan gjøres ved å fortsette å «skalere opp» store språkmodeller ved å legge til mer data og datakraft.
Disse tvilene ble forsterket av lanseringen av nye lavkostmodeller fra den kinesiske oppstartsbedriften DeepSeek i slutten av januar, som optimaliserer beregningseffektiviteten ved å stole mer på inferens enn de fleste nåværende modeller.
Nvidia-aksjer mistet så mye som en femtedel av verdien sin på et tidspunkt under et globalt salg av AI-aksjer utløst av DeepSeek. De har siden hentet inn mye av tapene sine ettersom investorer veddet på at selskapets brikker ville forbli bransjestandarden for trening og inferens, selv om de siden har falt tilbake på grunn av bredere handelsbekymringer.
[annonse_2]
Kilde: https://www.baogiaothong.vn/meta-bat-dau-thu-nghiem-chip-dao-tao-ai-noi-bo-dau-tien-192250312120123752.htm






Kommentar (0)