Nvidia publiserte 3. desember nye data som viser at deres nye kunstig intelligens (KI)-server er i stand til å forbedre ytelsen til avanserte KI-modeller, inkludert populære modeller fra Kina, med opptil 10 ganger sammenlignet med forrige generasjon servere.
Dataene kommer samtidig som AI-bransjen flytter fokuset fra modelltrening, et område der Nvidia for tiden er ledende, til å distribuere modeller til millioner av brukere, et område som opplever økt konkurranse fra rivaler som Advanced Micro Devices (AMD) og Cerebras.
Nvidia sier at disse forbedringene i stor grad kommer fra deres evne til å pakke et stort antall brikker inn i én server og de høyhastighetsforbindelsene mellom dem, et område der de fortsatt leder an og opprettholder en klar fordel over konkurrentene. Nvidias nyeste AI-server er utstyrt med 72 av deres toppmoderne brikker.
Dataene Nvidia ga ut fokuserer først og fremst på AI-modeller som bruker Mixture-of-Experts (MoE)-arkitektur, en metode som optimaliserer ytelsen til AI-modeller ved å dele oppgaver inn i separate deler og tilordne dem til forskjellige «eksperter» i modellen for behandling.
MoE-arkitekturen ble populær i 2025, spesielt etter at DeepSeek, et kinesisk AI-selskap, introduserte en høytytende åpen kildekode-modell som krevde mindre treningstid på Nvidia-brikker enn andre konkurrenter.
Siden den gang har store selskaper som OpenAI (produsenten av ChatGPT), franske Mistral og kinesiske Moonshot AI begynt å bruke MoE-metoden på modellene sine. Moonshot AI lanserte en høyt ansett modell med åpen kildekode i juli i fjor som bruker teknikken.
Mens Nvidia fortsetter å opprettholde et forsprang innen utrulling av AI-modeller, jobber også rivaler som AMD hardt med å utvikle konkurrerende produkter.
AMD forventes å lansere en lignende AI-server neste år, som integrerer mange kraftige brikker med mål om å konkurrere direkte med Nvidias servere innen inferens (modellbehandling og distribusjon).
Kilde: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






Kommentar (0)