Auf der GTC 2025-Konferenz in San Jose (USA) kündigte Asus eine aktualisierte Version seines AI POD-Serversystems an. Dank der Integration der Nvidia GB300 NVL72-Plattform ist das System mit 72 Blackwell Ultra-GPUs und 36 Grace-CPUs ausgestattet und bietet so eine höhere Leistung bei Anwendungen der künstlichen Intelligenz (KI).
Asus präsentiert auf der GTC 2025 ein AI-POD-System der nächsten Generation mit Nvidia Blackwell GPU und Flüssigkeitskühlungstechnologie
Der neue AI POD ist im Rack-Format konzipiert, ermöglicht flexible Erweiterungen und unterstützt bis zu 40 TB Hochgeschwindigkeitsspeicher pro Rack. Darüber hinaus integriert das System die NVIDIA Quantum-X800 InfiniBand- und Spectrum-X Ethernet-Netzwerktechnologie und verbessert so die Datenübertragungsgeschwindigkeit zwischen Serverclustern. Flüssigkeitskühlung sorgt für einen stabilen Betrieb, insbesondere bei rechenintensiven Aufgaben wie dem Training großer Sprachmodelle (LLM).
Neben dem AI POD hat Asus auch eine Reihe neuer KI-Server in den Blackwell- und HGX-Ökosystemen auf den Markt gebracht, darunter die Modelle XA NB3I-E12, ESC NB8-E11 und ESC N8-E11V. Diese Produkte unterstützen ein breites Spektrum an Bereichen wie Data Science, Finanzen, Gesundheitswesen und synthetische KI. Laut Asus bietet die Erweiterung des KI-Serverportfolios Unternehmen mehr Optionen für ihre spezifischen Anforderungen.
Asus sagt, dass die neue Generation des KI-PODs die Anforderungen großer Rechenzentren und KI-Forschungseinrichtungen erfüllen kann. Die enge Zusammenarbeit mit Nvidia bei diesem Projekt trägt dazu bei, die Fähigkeit zu optimieren, KI im großen Maßstab zu betreiben und zu entwickeln.
[Anzeige_2]
Quelle: https://thanhnien.vn/asus-ra-mat-ai-pod-su-dung-chip-blackwell-gb300-tai-gtc-2025-18525031920230298.htm
Kommentar (0)