Chip baru yang disebut H200 ini akan melampaui chip unggulan Nvidia saat ini, yaitu H100. Peningkatan utama pada chip baru ini terletak pada memori dengan bandwidth yang lebih tinggi, yang merupakan salah satu bagian chip yang paling mahal dan menentukan kecepatan pemrosesan data.
Chip H200 Nvidia akan menangani sistem kecerdasan buatan yang lebih besar.
Nvidia saat ini memegang monopoli di pasar chip AI dan memasok chip untuk layanan ChatGPT dari OpenAI dan banyak layanan AI lainnya yang menghasilkan respons mirip manusia. Penambahan memori dengan bandwidth lebih tinggi dan konektivitas lebih cepat ke elemen pemrosesan chip berarti layanan seperti ChatGPT dapat merespons lebih cepat, menurut Reuters.
Chip H200 memiliki memori berkecepatan tinggi sebesar 141 gigabyte (GB), meningkat dari 80 GB pada chip H100 sebelumnya. Nvidia tidak mengungkapkan pemasok memori untuk chip baru ini, tetapi Micron Technology mengatakan pada bulan September bahwa mereka sedang berupaya untuk menjadi pemasok bagi Nvidia.
Nvidia lebih lanjut mengungkapkan bahwa Amazon, Google Cloud, Microsoft Azure, dan layanan web Oracle Cloud Infrastructure akan menjadi beberapa penyedia cloud pertama yang menggunakan chip H200, selain penyedia cloud AI profesional seperti CoreWeave, Lambda, dan Vultr.
Microsoft meluncurkan chip AI.
Tautan sumber






Komentar (0)