Nvidia publiceerde op 3 december nieuwe gegevens waaruit blijkt dat zijn nieuwe server met kunstmatige intelligentie (AI) de prestaties van geavanceerde AI-modellen, waaronder populaire modellen uit China, tot wel 10 keer kan verbeteren in vergelijking met de vorige generatie servers.
Deze gegevens komen beschikbaar omdat de AI-industrie haar focus verschuift van modeltraining, een gebied waarop Nvidia momenteel koploper is, naar het implementeren van modellen voor miljoenen gebruikers. Dit is een gebied waarop steeds meer concurrentie is van rivalen zoals Advanced Micro Devices (AMD) en Cerebras.
Nvidia zegt dat deze verbeteringen grotendeels te danken zijn aan het vermogen om een groot aantal chips in één server te stoppen en de snelle verbindingen daartussen, een gebied waarop het nog steeds vooroploopt en een duidelijke voorsprong behoudt op zijn rivalen. Nvidia's nieuwste AI-server is uitgerust met 72 van zijn topchips.
De door Nvidia vrijgegeven gegevens richten zich voornamelijk op AI-modellen die gebruikmaken van de Mixture-of-Experts (MoE)-architectuur, een methode die de prestaties van AI-modellen optimaliseert door taken op te delen in afzonderlijke onderdelen en deze toe te wijzen aan verschillende 'experts' binnen het model voor verwerking.
De MoE-architectuur won in 2025 aan populariteit, vooral nadat DeepSeek, een Chinees AI-bedrijf, een hoogwaardig open-sourcemodel introduceerde dat minder trainingstijd op Nvidia-chips vereiste dan andere concurrenten.
Sindsdien zijn grote bedrijven zoals OpenAI (de maker van ChatGPT), het Franse Mistral en het Chinese Moonshot AI begonnen de MoE-methode op hun modellen toe te passen. Moonshot AI bracht afgelopen juli een zeer gewaardeerd open-sourcemodel uit dat de techniek gebruikt.
Terwijl Nvidia nog steeds een voorsprong heeft op het gebied van de implementatie van AI-modellen, werken concurrenten als AMD ook hard aan de ontwikkeling van concurrerende producten.
Verwacht wordt dat AMD volgend jaar een vergelijkbare AI-server op de markt brengt, waarin veel krachtige chips zijn geïntegreerd, met als doel direct te concurreren met de servers van Nvidia op het gebied van inferentie (modelverwerking en implementatie).
Bron: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






Reactie (0)