Cip baharu yang dipanggil H200 itu akan mengatasi cip utama Nvidia semasa, H100. Peningkatan utama cip baharu ini terletak pada memori lebar jalurnya yang lebih tinggi, yang merupakan salah satu bahagian cip yang paling mahal dan menentukan kelajuan pemprosesan data.
Cip H200 Nvidia akan mengendalikan sistem kecerdasan buatan yang lebih besar.
Nvidia kini memegang monopoli pasaran cip AI dan membekalkan cip untuk perkhidmatan ChatGPT OpenAI dan banyak lagi perkhidmatan AI lain yang menjana respons seperti manusia. Menambah memori jalur lebar yang lebih tinggi dan sambungan yang lebih pantas pada elemen pemprosesan cip bermakna perkhidmatan seperti ChatGPT boleh bertindak balas dengan lebih pantas, menurut Reuters.
H200 mempunyai memori jalur lebar tinggi sebanyak 141 gigabait (GB), meningkat daripada 80 GB dalam cip H100 sebelumnya. Nvidia tidak mendedahkan pembekal memori untuk cip baharu itu, tetapi Micron Technology berkata pada bulan September bahawa ia sedang berusaha untuk menjadi pembekal untuk Nvidia.
Nvidia selanjutnya mendedahkan bahawa perkhidmatan web Amazon, Google Cloud, Microsoft Azure dan Oracle Cloud Infrastructure akan menjadi antara penyedia awan pertama yang menggunakan cip H200, selain penyedia awan AI profesional seperti CoreWeave, Lambda dan Vultr.
Microsoft melancarkan cip AI.
[iklan_2]
Pautan sumber






Komen (0)