米国サンノゼで開催されたGTC 2025カンファレンスにおいて、ASUSはAI PODサーバーシステムのアップグレード版を発表しました。NVIDIA GB300 NVL72プラットフォームを統合したこのシステムは、72基のBlackwell Ultra GPUと36基のGrace CPUを搭載し、人工知能(AI)アプリケーションにおいてより高いパフォーマンスを実現します。
ASUSはGTC 2025で、NVIDIA Blackwell GPUと液体冷却技術を搭載した次世代AI PODシステムを披露した。
新しいAI PODはラックスケールフォームファクターで設計されており、柔軟な拡張が可能で、ラックあたり最大40TBの高速メモリをサポートします。さらに、NVIDIA Quantum-X800 InfiniBandとSpectrum-X Ethernetネットワーク技術を統合し、サーバークラスター間のデータ転送速度を向上させています。また、液冷システムを採用することで、特に大規模言語モデル(LLM)の学習といった高負荷コンピューティングタスクにおいて、安定した動作を実現します。
AI PODに加え、ASUSはBlackwellおよびHGXエコシステムにおいて、XA NB3I-E12、ESC NB8-E11、ESC N8-E11Vモデルを含む一連の新しいAIサーバーを発表しました。これらの製品は、データサイエンス、金融、ヘルスケア、合成AIなど、幅広い分野をサポートしています。ASUSによると、AIサーバーポートフォリオの拡充により、企業は特定のニーズに合わせてより多くの選択肢を得ることができます。
ASUSは、新世代AI PODは大規模データセンターやAI研究機関のニーズを満たすことができると述べています。このプロジェクトにおけるNVIDIAとの緊密な連携により、大規模なAIの運用と開発能力の最適化が実現します。
[広告2]
出典: https://thanhnien.vn/asus-ra-mat-ai-pod-su-dung-chip-blackwell-gb300-tai-gtc-2025-18525031920230298.htm
コメント (0)