Cip baharu, yang dipanggil H200, akan mengatasi cip perdana semasa Nvidia, H100. Peningkatan utama cip baharu ialah memori lebar jalur yang lebih tinggi, yang merupakan salah satu bahagian cip yang paling mahal dan menentukan seberapa pantas ia boleh memproses data.
Cip H200 Nvidia akan mengendalikan sistem kecerdasan buatan yang lebih besar
Nvidia kini mempunyai monopoli pada pasaran cip AI, membekalkan cip kepada perkhidmatan ChatGPT OpenAI dan beberapa perkhidmatan AI yang menjana respons seperti manusia. Menambah lebih banyak memori jalur lebar tinggi dan sambungan yang lebih pantas kepada elemen pemprosesan cip bermakna perkhidmatan seperti ChatGPT boleh bertindak balas dengan lebih cepat, menurut Reuters.
H200 mempunyai 141 gigabait (GB) memori lebar jalur tinggi, meningkat daripada 80GB dalam cip H100 sebelumnya. Nvidia tidak mendedahkan pembekal memori untuk cip baharu itu, tetapi Teknologi Micron berkata pada bulan September bahawa ia sedang berusaha untuk menjadi pembekal kepada Nvidia.
Nvidia seterusnya mendedahkan bahawa Perkhidmatan Web Amazon, Google Cloud, Microsoft Azure dan Oracle Cloud Infrastructure akan menjadi penyedia perkhidmatan awan pertama yang mengeksploitasi cip H200, sebagai tambahan kepada penyedia perkhidmatan awan AI profesional seperti CoreWeave, Lambda, dan Vultr.
Microsoft melancarkan cip AI
Pautan sumber
Komen (0)