Det nya chippet, kallat H200, kommer att överträffa Nvidias nuvarande flaggskeppschip, H100. Den nya chipets huvudsakliga uppgradering är minne med högre bandbredd, vilket är en av de dyraste delarna av chipet och avgör hur snabbt det kan bearbeta data.
Nvidias H200-chip kommer att hantera större system för artificiell intelligens
Nvidia har för närvarande monopol på AI-chipmarknaden och levererar chip till OpenAIs ChatGPT-tjänst och ett antal AI-tjänster som genererar människoliknande svar. Genom att lägga till minne med högre bandbredd och snabbare anslutningar till chipets processorelement kan tjänster som ChatGPT svara snabbare, enligt Reuters.
H200 har 141 gigabyte (GB) högbandbreddsminne, upp från 80 GB i det tidigare H100-chippet. Nvidia avslöjade inte minnesleverantören för det nya chipet, men Micron Technology sa i september att de arbetade på att bli en leverantör till Nvidia.
Nvidia avslöjade vidare att Amazon Web Services, Google Cloud, Microsoft Azure och Oracle Cloud Infrastructure kommer att vara de första molntjänstleverantörerna som utnyttjar H200-chippet, utöver professionella AI-molntjänstleverantörer som CoreWeave, Lambda och Vultr.
Microsoft lanserar AI-chip
[annons_2]
Källänk






Kommentar (0)