H200と呼ばれるこの新チップは、NVIDIAの現行フラッグシップチップであるH100を凌駕する。新チップの主なアップグレードは、チップの中で最も高価な部品の一つであり、データ処理速度を左右するメモリの帯域幅拡大にある。
Nvidia の H200 チップは、より大規模な人工知能システムを処理します。
Nvidiaは現在、AIチップ市場を独占しており、OpenAIのChatGPTサービスや、人間のような応答を生成する他の多くのAIサービスにチップを供給しています。ロイター通信によると、チップの演算処理要素に高帯域幅のメモリと高速接続を追加することで、ChatGPTのようなサービスはより迅速に応答できるようになります。
H200は141ギガバイト(GB)の高帯域幅メモリを搭載しており、前世代のH100チップの80GBから増加しています。NVIDIAは新型チップのメモリサプライヤーを明らかにしていませんが、Micron Technologyは9月にNVIDIAのサプライヤーとなることを目指していると発表しました。
Nvidiaはさらに、CoreWeave、Lambda、Vultrなどの専門的なAIクラウドプロバイダーに加えて、Amazon、Google Cloud、Microsoft Azure、Oracle Cloud InfrastructureのWebサービスがH200チップを活用する最初のクラウドプロバイダーになることを明らかにした。
マイクロソフトがAIチップを発売。
[広告2]
ソースリンク






コメント (0)