Nvidia a publié le 3 décembre de nouvelles données montrant que son nouveau serveur d'intelligence artificielle (IA) est capable d'améliorer jusqu'à 10 fois les performances des modèles d'IA avancés, y compris les modèles populaires chinois, par rapport à la génération précédente de serveurs.
Ces données surviennent alors que l'industrie de l'IA déplace son attention de l'entraînement des modèles, un domaine où Nvidia est actuellement leader, vers le déploiement de modèles auprès de millions d'utilisateurs, un domaine qui connaît une concurrence accrue de la part de rivaux comme Advanced Micro Devices (AMD) et Cerebras.
Nvidia affirme que ces améliorations proviennent principalement de sa capacité à intégrer un grand nombre de puces dans un seul serveur et des connexions à haut débit qui les relient, un domaine où elle conserve une avance considérable sur ses concurrents. Le dernier serveur d'IA de Nvidia est équipé de 72 de ses puces haut de gamme.
Les données publiées par Nvidia se concentrent principalement sur les modèles d'IA qui utilisent l'architecture Mixture-of-Experts (MoE), une méthode qui optimise les performances des modèles d'IA en divisant les tâches en parties distinctes et en les assignant à différents « experts » au sein du modèle pour traitement.
L'architecture MoE a gagné en popularité en 2025, notamment après que DeepSeek, une société chinoise spécialisée dans l'IA, a présenté un modèle open source haute performance qui nécessitait moins de temps d'entraînement sur les puces Nvidia que ses concurrents.
Depuis, des entreprises majeures comme OpenAI (créatrice de ChatGPT), le français Mistral et le chinois Moonshot AI ont commencé à appliquer la méthode MoE à leurs modèles. Moonshot AI a publié en juillet dernier un modèle open source très apprécié qui utilise cette technique.
Bien que Nvidia conserve un avantage dans le déploiement de modèles d'IA, ses concurrents comme AMD travaillent également d'arrache-pied pour développer des produits concurrents.
AMD devrait lancer l'année prochaine un serveur d'IA similaire, intégrant de nombreuses puces puissantes dans le but de concurrencer directement les serveurs de Nvidia dans le domaine de l'inférence (traitement et déploiement de modèles).
Source : https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






Comment (0)