H200と呼ばれるこの新チップは、NVIDIAの現行フラッグシップチップであるH100を凌駕する。新チップの主なアップグレードは、メモリ帯域幅の拡大だ。メモリはチップの中で最も高価な部品の一つであり、データ処理速度を左右する。
NvidiaのH200チップは、より大規模な人工知能システムに対応します
Nvidiaは現在、AIチップ市場を独占しており、OpenAIのChatGPTサービスや、人間のような応答を生成する多くのAIサービスにチップを供給しています。ロイター通信によると、チップの演算処理要素に高帯域幅メモリと高速接続を追加することで、ChatGPTのようなサービスはより迅速に応答できるようになります。
H200は141ギガバイト(GB)の高帯域幅メモリを搭載しており、前世代のH100チップの80GBから増加しています。NVIDIAは新型チップのメモリサプライヤーを明らかにしていませんが、Micron Technologyは9月にNVIDIAへのサプライヤーとなることを目指していると発表しました。
Nvidiaはさらに、CoreWeave、Lambda、Vultrなどの専門的なAIクラウドサービスプロバイダーに加えて、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud InfrastructureがH200チップを活用する最初のクラウドサービスプロバイダーになることを明らかにした。
マイクロソフトがAIチップを発表
[広告2]
ソースリンク
コメント (0)