De nieuwe chip, de H200, zal Nvidia's huidige topmodel, de H100, overtreffen. De belangrijkste verbetering van de nieuwe chip zit hem in het geheugen met hogere bandbreedte, een van de duurste onderdelen van de chip die de gegevensverwerkingssnelheid bepaalt.
De H200-chip van Nvidia is geschikt voor grotere systemen met kunstmatige intelligentie.
Nvidia heeft momenteel een monopolie op de markt voor AI-chips en levert chips voor OpenAI's ChatGPT-service en vele andere AI-diensten die mensachtige reacties genereren. Door geheugen met een hogere bandbreedte en snellere connectiviteit toe te voegen aan de verwerkingselementen van de chip, kunnen diensten zoals ChatGPT sneller reageren, aldus Reuters.
De H200 heeft 141 gigabyte (GB) aan high-bandwidth geheugen, een toename ten opzichte van de 80 GB in de vorige H100-chip. Nvidia heeft de geheugenleverancier voor de nieuwe chip niet bekendgemaakt, maar Micron Technology gaf in september aan dat het bedrijf eraan werkt om leverancier voor Nvidia te worden.
Nvidia onthulde verder dat de webdiensten van Amazon, Google Cloud, Microsoft Azure en Oracle Cloud Infrastructure tot de eerste cloudproviders zullen behoren die de H200-chip gaan gebruiken, naast professionele AI-cloudproviders zoals CoreWeave, Lambda en Vultr.
Microsoft lanceert AI-chip.
Bronlink






Reactie (0)