エヌビディアは12月3日、同社の新しい人工知能(AI)サーバーが、中国の人気モデルを含む高度なAIモデルのパフォーマンスを前世代のサーバーに比べて最大10倍向上させることができることを示す新たなデータを公開した。
このデータは、AI業界が、現在Nvidiaがリードするモデルトレーニングから、Advanced Micro Devices (AMD)やCerebrasなどのライバルとの競争が激化している数百万のユーザーへのモデルの展開へと重点を移している中で発表された。
NVIDIA社によると、これらの改善は主に、多数のチップを1台のサーバーに搭載し、それらのチップ間を高速接続できる能力によるもので、同社は依然としてこの分野で他社をリードし、明確な優位性を維持している。NVIDIA社の最新AIサーバーには、同社の最高級チップが72個搭載されている。
Nvidia が公開したデータは主に、Mixture-of-Experts (MoE) アーキテクチャを使用する AI モデルに焦点を当てています。これは、タスクを個別の部分に分割し、モデル内の異なる「エキスパート」に割り当てて処理することで、AI モデルのパフォーマンスを最適化する手法です。
MoEアーキテクチャは、特に中国のAI企業であるDeepSeekが、他の競合他社よりもNvidiaチップでのトレーニング時間が短い高性能オープンソースモデルを導入した後、2025年に人気を博しました。
それ以来、OpenAI(ChatGPTの開発元)、フランスのMistral、中国のMoonshot AIといった大手企業が、Moonshot AIのモデルにMoE法を適用し始めています。Moonshot AIは今年7月、この手法を用いた高く評価されているオープンソースモデルをリリースしました。
Nvidia は AI モデルの導入において優位性を維持し続けていますが、AMD などのライバルも競合製品の開発に尽力しています。
AMD は来年、推論 (モデル処理と展開) の分野で Nvidia のサーバーと直接競合することを目的として、多くの強力なチップを統合した同様の AI サーバーを発売する予定です。
出典: https://www.vietnamplus.vn/nvidia-cong-bo-may-chu-ai-moi-co-hieu-suat-cao-gap-10-lan-post1080980.vnp






コメント (0)