米国の制裁によって高品質半導体チップへの需要が抑制される中、ファーウェイはテクノロジー界に衝撃的な動きを見せた。中国の巨大企業であるファーウェイは、自社の新しいソフトウェアによって、ライバルであるNVIDIAの1,000倍の処理速度を持つ「模擬AIチップ」を生成できると主張している。
ファーウェイは最近、大規模コンピューティング クラスターの容量を徹底的に最適化するように設計されたオープン ソース オーケストレーション ツールである Flex:ai を正式に導入しました。

スーパーコンピューティング クラスター向けの Flex:ai オーケストレーション ツールのリリース。
Kubernetes 上に構築され、ModelEngine コミュニティを通じてリリースされた Flex:ai は、単なる管理ツールではありません。
これは、中国の現在の「ハードウェアをソフトウェアで補う」戦略に対する緊急の解決策とみられている。
ファーウェイの最も注目すべき主張は、「NVIDIAの1,000倍高速なシミュレーションAIチップを開発できる」という点です。この膨大な数字の背後にある技術的な詳細は明らかにされていませんが、実用的な効率性という点では、Flex:aiはAIチップの平均利用率を約30%向上させるとファーウェイは主張しています。
Flex:aiは、アクセラレータ(GPU/NPU)を個別に実行してリソースを無駄にするのではなく、スマートな仮想化メカニズムを採用しています。このツールは、物理GPUまたはNPUカードを複数の仮想コンピューティングインスタンスに「スライス」します。

エミュレートされたチップは Huawei が主張する速度を持っていますか?
小規模なタスクの場合:Flex:aiは、リソースの余裕を最大限にするためにスタックを構成できます。大規模なAIモデルの場合:ワークロードを複数のカードに分散することで、単一デバイスの物理的な制限を克服できます。
システムの中心となるのは「Hi Scheduler」です。アイドル状態のリソースをリアルタイムでディスパッチできるため、AI タスクが待機している間は計算能力が無駄になりません。
異機種チップシステムを統合する野心
Flex:aiと既存のソリューションとの大きな違いは、相互互換性です。Run:ai(2024年にNvidiaに買収)などのツールはNvidiaエコシステムに重点を置いているのに対し、Flex:aiは異なる種類のハードウェアの統合を目指しています。Flex:aiは、Huaweiの自社開発Ascendチップをはじめとする標準的なGPUを強力にサポートしています。
このツールは、上海交通大学、西安交通大学、厦門大学(中国)の研究者の協力により開発されました。
Huaweiは現在、ソースコードと具体的なテスト結果をまだ公開していません。専門家の間では、Flex:aiが本当に標準プラグインを通じて一般的なGPUとスムーズに互換性を持つのか、そして「1,000倍高速」という数字は本当に画期的なのか、それともエミュレータ環境におけるマーケティング上の比較に過ぎないのか、という大きな疑問が投げかけられています。答えは、Flex:aiがプログラミングコミュニティに正式に公開された時に明らかになるでしょう。
出典: https://khoahocdoisong.vn/phai-chang-huawei-tao-ra-chip-ai-mo-phong-nhanh-hon-1000-lan-nvidia-post2149072921.html






コメント (0)