En la conferencia GTC 2025 celebrada en San José (EE. UU.), Asus anunció una versión mejorada del sistema de servidor AI POD. Con la integración de la plataforma Nvidia GB300 NVL72, el sistema está equipado con 72 GPU Blackwell Ultra y 36 CPU Grace, lo que proporciona un mayor rendimiento en aplicaciones de inteligencia artificial (IA).
Asus presenta el sistema AI POD de próxima generación en GTC 2025, con GPU Nvidia Blackwell y tecnología de refrigeración líquida
El nuevo AI POD está diseñado con un factor de forma a escala de rack, lo que permite una expansión flexible y admite hasta 40 TB de memoria de alta velocidad por rack. Además, el sistema integra las tecnologías de red NVIDIA Quantum-X800 InfiniBand y Spectrum-X Ethernet, lo que mejora la velocidad de transmisión de datos entre clústeres de servidores. La refrigeración líquida también garantiza un funcionamiento estable, especialmente durante tareas de computación de alta intensidad, como el entrenamiento de modelos de lenguaje grandes (LLM).
Además del AI POD, Asus también lanzó una serie de nuevos servidores de IA en los ecosistemas Blackwell y HGX, incluyendo los modelos XA NB3I-E12, ESC NB8-E11 y ESC N8-E11V. Estos productos son compatibles con una amplia gama de campos, como la ciencia de datos, las finanzas, la salud y la IA sintética. Según Asus, la expansión del portafolio de servidores de IA ofrece a las empresas más opciones que se adaptan a sus necesidades específicas.
Asus afirma que el nuevo módulo de IA (AI POD) puede satisfacer las necesidades de grandes centros de datos y organizaciones de investigación en IA. La estrecha colaboración con Nvidia en este proyecto ayuda a optimizar la capacidad de operar y desarrollar IA a gran escala.
[anuncio_2]
Fuente: https://thanhnien.vn/asus-ra-mat-ai-pod-su-dung-chip-blackwell-gb300-tai-gtc-2025-18525031920230298.htm
Kommentar (0)