Noul cip, numit H200, va depăși actualul cip emblematic al Nvidia, H100. Principala îmbunătățire a noului cip este memoria cu lățime de bandă mai mare, care este una dintre cele mai scumpe părți ale cipului și determină cât de repede poate procesa datele.
Cipul H200 de la Nvidia va gestiona sisteme de inteligență artificială mai mari
Nvidia deține în prezent monopolul pe piața cipurilor de inteligență artificială, furnizând cipuri serviciului ChatGPT al OpenAI și unei serii de servicii de inteligență artificială care generează răspunsuri asemănătoare celor umane. Adăugarea de memorie cu lățime de bandă mai mare și conexiuni mai rapide la elementele de procesare ale cipului înseamnă că servicii precum ChatGPT pot răspunde mai rapid, potrivit Reuters.
H200 are 141 gigabytes (GB) de memorie cu lățime de bandă mare, față de 80 GB cât avea precedentul cip H100. Nvidia nu a dezvăluit furnizorul de memorie pentru noul cip, dar Micron Technology a declarat în septembrie că lucrează pentru a deveni furnizor pentru Nvidia.
Nvidia a mai dezvăluit că Amazon Web Services, Google Cloud, Microsoft Azure și Oracle Cloud Infrastructure vor fi primii furnizori de servicii cloud care vor exploata cipul H200, pe lângă furnizorii profesioniști de servicii cloud de inteligență artificială, precum CoreWeave, Lambda și Vultr.
Microsoft lansează un cip de inteligență artificială
Legătură sursă
Comentariu (0)