
Brikker er en av nøkkelkomponentene i AI-opplæring og modelloperasjonssystemer. De siste årene har AI-trenden skapt et maskinvarekappløp blant store selskaper, noe som har ført til at analytikere har spårt en nært forestående mangel.
Etter hvert som opplæringsfasen skrider frem, spår eksperter at selskaper flytter investeringene sine mot AI-distribusjonssystemer, også kjent som inferens. Dette skaper nye utfordringer innen chipforsyning og -produksjon, men gir også muligheter for AI-bedrifter med de riktige investeringsstrategiene.
Det virkelige problemet
Eksplosjonen av AI er et resultat av fremskritt innen maskinvare. På Zalo AI Summit 2025 understreket Dr. Pham Hy Hieu fra OpenAI at fremveksten av ChatGPT revolusjonerte brikker, noe som gjorde det mulig for Nvidia å oppnå rask vekst på kort tid.
Teknisk sett er brikker avgjørende for AI fordi 80 % av beregningene i AI-modeller er matrisemultiplikasjoner. AI-brikkemarkedet er for tiden delt inn i to hovedtyper basert på deres tiltenkte bruk. Den første typen er treningsbrikker, som krever evnen til å utføre store matrisemultiplikasjoner, med et konsistent antall dimensjoner og sterk båndbredde for å koble til tusenvis av brikker samtidig.
Den andre typen er inferens-/tjenestebrikken, som krever et mer beskjedent antall lenker (rundt 50–100 brikker) og fokuserer på små matriseproblemer av uregelmessig størrelse. Inferensbrikker krever imidlertid god effektoptimalisering for bærekraftig drift.
Hvis man ser tilbake på utviklingshistorien, der perioden fra 2019–2023 fokuserte på trening og datakomprimering for GPT-modeller, flyttes fokuset fra 2024 og utover til resonneringsevner. Dette skiftet har ført til en etterspørsel etter inferensbrikker.
|
Dr. Pham Hy Hieu. Foto: Phuong Lam . |
I et intervju med Tri Thuc - Znews uttalte Dr. Pham Hy Hieu at denne trenden skaper nye utfordringer for AI-feltet, ettersom brikkene ennå ikke har utviklet seg raskt nok til å holde tritt med hastigheten til disse modellene.
«Hos OpenAI spøker folk ofte med at uansett hvor mye raskere ingeniører lager brikker, vil forskere finne måter å utnytte all den datakraften på», sa Hieu.
Ifølge Dr. Hieu mangler industrien dataoverføringsbåndbredde mellom høybåndbreddeminne (HBM) og innebygd minne (SRAM). Når modeller går over fra læring til kunnskapsinferens, lagres data i HBM, overføres deretter til SRAM ved hvert inferensstrinn for beregning, og overføres deretter tilbake til HBM.
«Jo dypere modellens slutninger er, desto flere dataoverføringstrinn kreves, noe som fører til en «flaskehals» i båndbredde mellom HBM og SRAM. Dette er knappheten som oppstår i 2025, og som forventes å fortsette inn i 2026», delte Dr. Hieu videre.
For å løse dette problemet uttalte OpenAI-representanter at brikkeprodusenter som Nvidia og AMD vil investere i HBM-SRAM-båndbredde i løpet av det kommende året. Kostnaden for å produsere denne båndbredden er imidlertid svært høy, og selskaper kan kutte ned på andre funksjoner på brikkene sine for å kontrollere salgsprisen.
Som et resultat kan bransjen se brikker med sterk HBM-SRAM-båndbredde, men noen andre spesifikasjoner kan svekkes.
En annen trend fra et programvareperspektiv er at AI-selskaper som OpenAI, xAI, Anthropic, osv., kan finjustere modellene sine for å trekke færre slutninger, eller bare slutninger når det er nødvendig.
«Enkelt sagt, hvis du anser ChatGPT som et ganske godt/utmerket verktøy for elever på videregående skole, bør verktøyet bare ha 15 sekunder på å finne ut svaret når du stiller et enkelt matteproblem. Men med et problem på internasjonalt konkurransenivå, bør verktøyet måtte bruke en time på å finne ut av det», la Dr. Hieu til.
Samlet sett kan disse to trendene kombineres for å løse flaskehalsen i HBM-SRAM-båndbredden som AI-bransjen står overfor.
De store spillernes spill
Kappløpet om AI-brikker handler ikke bare om teknologi; det handler også om å kontrollere forsyningskjeden. Da ChatGPT ble lansert, var modellens drift nesten utelukkende avhengig av Nvidia-brikker. Dette førte til en økning i maskinvarekjøp fra teknologigiganter som Anthropic og Meta.
Spillet er imidlertid ikke bare for Nvidia. Konkurrenter som AMD og Google tilbyr også optimale maskinvareløsninger for AI-modellutviklere. Likevel erkjenner OpenAI-representanter at det er svært vanskelig å utvikle AI-brikker, selv med milliarder av dollar investert av disse selskapene.
Ifølge Dr. Hieu har Meta fortsatt problemer ettersom MTIA-brikken deres «ikke har blitt brukt av noen ennå». Amazon utvikler to brikker, inkludert treningsbrikken Trainium og serverbrikken Inferentia, men støter også på lignende problemer som Meta.
Google har hatt større suksess i denne forbindelse, ettersom deres Tensor Processing Units (TPU-er) tilbyr ganske kraftig ytelse, noe som hjelper selskapet med å bryte seg løs fra avhengigheten av Nvidia. Dette reduserer også presset fra chipmangel fordi Google ikke trenger å konkurrere om å kjøpe store mengder brikker fra Nvidia.
Dr. Hieu mener imidlertid at Googles problem stammer fra det faktum at TPU-er er svært vanskelige å programmere på grunn av bruken av et «bisart» programmeringsspråk.
«Denne avviket gjør det unødvendig og absurd vanskelig å programmere Googles TPU-er. Derfor, med mindre Google selger eller leier ut TPU-ene deres til en mye lavere pris enn Nvidia GPU-er, vil ingen bruke TPU-ene deres», sa Dr. Hieu til Tri Thuc - Znews .
Google og Amazon har imidlertid en smart strategi når de investerer i AI-oppstartsbedrifter som Anthropic og SSI. Forskjellen er at de i stedet for å investere med kontanter, tilbyr brikker til disse oppstartsbedriftene. Det er slik de to selskapene finner et marked for brikkene sine, noe som bidrar til å redusere mangelen.
|
Deling fra Dr. Pham Hy Hieu om maskinvare i AI-infrastruktur på Zalo AI Summit 2025. Foto: Phuong Lam . |
Midt i prognoser om knapphet har store selskaper en tendens til å hamstre AI-brikker takket være sine rikelige økonomiske ressurser. Dette påvirker mange AI-oppstartsbedrifter og små bedrifter i deres tilgang til maskinvaren.
Dr. Hieu spådde to trender. For det første vil små oppstartsbedrifter bli avhengige av store selskaper gjennom API-tjenester. For eksempel vil oppstartsbedrifter som utvikler AI for å støtte programmering måtte bruke Anthropics Claude eller OpenAIs Codex.
«Denne avhengigheten vil «berike» de store aktørene, i hvert fall inntil oppstartsbedriften vokser til det punktet hvor den har nok penger til å kjøpe brikker.»
Svært få oppstartsbedrifter overlever til dette stadiet, men Cursor er et unntak i 2025. Selv om de fortsatt er sterkt avhengige av Anthropic, har de begynt å anskaffe brikker for å utvikle sine egne modeller, delte en representant for OpenAI.
Deretter kom fremveksten av store oppstartsbedrifter, grunnlagt av industrigiganter, som var i stand til å skaffe betydelig kapital til å kjøpe opp brikker. Noen eksempler inkluderer Thinking Machines, som samlet inn 2 milliarder dollar (grunnlagt av Mira Murati, tidligere teknologidirektør i OpenAI), og SSI, som samlet inn 1 milliard dollar (grunnlagt av Ilya Sutskever, tidligere også medgründer av OpenAI).
Muligheter for vietnamesiske bedrifter
Selv om KI-kappløpet byr på mange utfordringer globalt, mener Dr. Hieu at vietnamesiske bedrifter fortsatt har muligheter, både innen chiputvikling og infrastrukturinvesteringer.
"Hvilken rolle spiller Vietnam i chipproduksjonen?"
«Selv om chipindustrien er en billionindustri, trenger vi ikke titalls milliarder dollar for å delta. Vietnamesere kan bidra til AI-chip-veikartet på mange måter», sa Hieu på Zalo AI Summit 2025-arrangementet.
Representanter for OpenAI skisserte to hovedretninger for utvikling. I stedet for å kjempe om å produsere brikker for storskala språkmodeller, kunne Vietnam fokusere på å utvikle lavstrømsbrikker for biler, smarttelefoner eller implanterbare medisinske enheter. Dette er markedssegmenter med betydelig vekstpotensial og lavere investeringskostnader.
For det andre er det integreringen av maskinvare og programvare. Bidrag som Flash Attention 2-algoritmen demonstrerer hvordan en smart kombinasjon av programmering og maskinvare kan skape gjennombrudd uten å kreve massive kapitalinvesteringer.
|
Dr. Pham Hy Hieu introduserer AI-brikken. Foto: Phuong Lam . |
Når det gjelder infrastrukturinvesteringer, mener Dr. Hieu at det ikke ville være for vanskelig å investere i et relativt lite antall brikker til forskning og utvikling.
«Jeg fikk nylig vite at åtte Nvidia H200-brikker koster 250 000 dollar. At mange brikker kan tjene forsknings- og utviklingsbehov», sa Hieu til Tri Thuc - Znews .
Men når de først har funnet den rette formelen for AI-produkter, må selskaper investere i større infrastruktur. Nylig lanserte Nvidia en ny GPU-salgsløsning som muliggjør langsiktig leasing med oppgraderingsmuligheter i stedet for å kjøpe store mengder GPU-er direkte.
«Dette kan være en mer effektiv investeringsmetode. Imidlertid krever utvikling av kunstig intelligens for en stor brukerbase fortsatt betydelig kapital. Viktigst av alt må vi ha en skikkelig forståelse og vurdering av effektiviteten av investeringene våre», understreket Dr. Hieu.
Kilde: https://znews.vn/linh-kien-quan-important-of-the-ai-race-post1613844.html









Kommentar (0)