La nouvelle puce, baptisée H200, surpassera la puce phare actuelle de Nvidia, la H100. La principale amélioration réside dans sa mémoire à bande passante plus élevée, qui est l'un des composants les plus coûteux de la puce et détermine la vitesse de traitement des données.
La puce H200 de Nvidia sera capable de gérer des systèmes d'intelligence artificielle plus importants.
Nvidia détient actuellement le monopole du marché des puces d'IA et fournit des puces au service ChatGPT d'OpenAI ainsi qu'à de nombreux autres services d'IA qui génèrent des réponses similaires à celles des humains. Selon Reuters, l'ajout d'une mémoire à plus large bande passante et d'une connectivité plus rapide aux éléments de traitement de la puce permet à des services comme ChatGPT de répondre plus rapidement.
La puce H200 dispose de 141 gigaoctets (Go) de mémoire à large bande passante, contre 80 Go pour la précédente puce H100. Nvidia n'a pas divulgué le nom du fournisseur de mémoire pour cette nouvelle puce, mais Micron Technology avait indiqué en septembre travailler à devenir fournisseur pour Nvidia.
Nvidia a également révélé qu'Amazon, Google Cloud, Microsoft Azure et les services web d'Oracle Cloud Infrastructure seront parmi les premiers fournisseurs de cloud à utiliser la puce H200, en plus des fournisseurs de cloud d'IA professionnels tels que CoreWeave, Lambda et Vultr.
Microsoft lance une puce d'IA.
Lien source






Comment (0)