Az Nvidia december 3-án új adatokat tett közzé, amelyek azt mutatják, hogy új mesterséges intelligencia (MI) szervere akár tízszeresére is képes javítani a fejlett MI-modellek, köztük a népszerű kínai modellek teljesítményét az előző generációs szerverekhez képest.
Az adatok akkor érkeztek, amikor a mesterséges intelligencia iparág a modellek betanításáról – ahol az Nvidia jelenleg vezető szerepet tölt be – a modellek milliós felhasználóknak történő telepítésére helyezte át a hangsúlyt, ahol egyre nagyobb a verseny az olyan riválisoktól, mint az Advanced Micro Devices (AMD) és a Cerebras.
Az Nvidia szerint ezek a fejlesztések nagyrészt annak köszönhetők, hogy nagyszámú chipet tud egyetlen szerverbe sűríteni, valamint a közöttük lévő nagysebességű kapcsolatoknak köszönhetően, ami egy olyan terület, ahol továbbra is vezető szerepet tölt be, és egyértelmű előnyt élvez versenytársaival szemben. Az Nvidia legújabb mesterséges intelligencia alapú szervere 72 csúcskategóriás chippel van felszerelve.
Az Nvidia által közzétett adatok elsősorban a Mixture-of-Experts (MoE) architektúrát használó MI-modellekre összpontosítanak. Ez egy olyan módszer, amely optimalizálja a MI-modellek teljesítményét azáltal, hogy a feladatokat különálló részekre osztja, és azokat a modellen belüli különböző „szakértőkhöz” rendeli feldolgozásra.
Az MoE architektúra 2025-ben vált népszerűvé, különösen azután, hogy a DeepSeek, egy kínai mesterséges intelligencia fejlesztő cég, bemutatott egy nagy teljesítményű, nyílt forráskódú modellt, amely kevesebb betanítási időt igényelt az Nvidia chipeken, mint a többi versenytárs.
Azóta olyan nagyvállalatok, mint az OpenAI (a ChatGPT gyártója), a francia Mistral és a kínai Moonshot AI, elkezdték alkalmazni az MoE módszert modelljeikben. A Moonshot AI idén júliusban kiadott egy nagyra becsült, nyílt forráskódú modellt, amely ezt a technikát használja.
Míg az Nvidia továbbra is előnyben van a mesterséges intelligencia modellek telepítésében, a riválisok, mint például az AMD, szintén keményen dolgoznak versengő termékek fejlesztésén.
Az AMD várhatóan jövőre piacra dob egy hasonló mesterséges intelligencia szervert, amely számos nagy teljesítményű chipet integrál azzal a céllal, hogy közvetlenül versenyezzen az Nvidia szervereivel a következtetés (modellfeldolgozás és -telepítés) területén.
Forrás: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






Hozzászólás (0)