El 3 de diciembre Nvidia publicó nuevos datos que muestran que su nuevo servidor de inteligencia artificial (IA) es capaz de mejorar el rendimiento de los modelos de IA avanzados, incluidos los modelos populares de China, hasta 10 veces en comparación con la generación anterior de servidores.
Los datos llegan a medida que la industria de la IA cambia su enfoque del entrenamiento de modelos, un área donde Nvidia actualmente lidera, a la implementación de modelos para millones de usuarios, un área que está viendo una mayor competencia de rivales como Advanced Micro Devices (AMD) y Cerebras.
Nvidia afirma que estas mejoras se deben principalmente a su capacidad para integrar una gran cantidad de chips en un solo servidor y a las conexiones de alta velocidad entre ellos, un área en la que aún lidera y mantiene una clara ventaja sobre sus competidores. El último servidor de IA de Nvidia está equipado con 72 de sus chips de gama alta.
Los datos publicados por Nvidia se centran principalmente en modelos de IA que utilizan la arquitectura Mixture-of-Experts (MoE), un método que optimiza el rendimiento de los modelos de IA al dividir las tareas en partes separadas y asignarlas a diferentes "expertos" dentro del modelo para su procesamiento.
La arquitectura MoE ganó popularidad en 2025, especialmente después de que DeepSeek, una empresa china de inteligencia artificial, introdujera un modelo de código abierto de alto rendimiento que requería menos tiempo de entrenamiento en los chips Nvidia que otros competidores.
Desde entonces, importantes empresas como OpenAI (creador de ChatGPT), la francesa Mistral y la china Moonshot AI han comenzado a aplicar el método MoE a sus modelos. Moonshot AI lanzó el pasado julio un modelo de código abierto de gran prestigio que utiliza esta técnica.
Si bien Nvidia continúa manteniendo una ventaja en la implementación del modelo de IA, rivales como AMD también están trabajando duro para desarrollar productos competitivos.
Se espera que AMD lance un servidor de IA similar el próximo año, integrando muchos chips potentes con el objetivo de competir directamente con los servidores de Nvidia en el campo de la inferencia (procesamiento y despliegue de modelos).
Fuente: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






Kommentar (0)