Det nya chippet, kallat H200, kommer att överträffa Nvidias nuvarande flaggskeppschip, H100. Den största uppgraderingen av det nya chipet ligger i dess minne med högre bandbredd, vilket är en av de dyraste delarna av chipet och avgör databehandlingshastigheten.
Nvidias H200-chip kommer att hantera större system för artificiell intelligens.
Nvidia har för närvarande monopol på AI-chipmarknaden och levererar chips till OpenAI:s ChatGPT-tjänst och många andra AI-tjänster som genererar människoliknande svar. Genom att lägga till minne med högre bandbredd och snabbare anslutning till chipets processorelement kan tjänster som ChatGPT svara snabbare, enligt Reuters.
H200 har 141 gigabyte (GB) högbandbreddsminne, upp från 80 GB i det tidigare H100-chippet. Nvidia avslöjade inte minnesleverantören för det nya chipet, men Micron Technology sa i september att de arbetade på att bli en leverantör till Nvidia.
Nvidia avslöjade vidare att Amazon, Google Cloud, Microsoft Azure och Oracle Cloud Infrastructures webbtjänster kommer att vara bland de första molnleverantörerna som använder H200-chippet, utöver professionella AI-molnleverantörer som CoreWeave, Lambda och Vultr.
Microsoft lanserar AI-chip.
[annons_2]
Källänk






Kommentar (0)