Lors d'un événement destiné aux développeurs le 18 mars, Nvidia a annoncé une série de nouveaux produits pour renforcer sa position sur le marché de l'intelligence artificielle (IA). Le cours de l'action du fabricant de puces a été multiplié par 54 et les revenus ont plus que triplé depuis que ChatGPT a lancé la course mondiale à l'IA fin 2022. Les GPU de serveur haut de gamme de Nvidia sont essentiels pour la formation et le déploiement de grands modèles de langage. Des entreprises comme Microsoft et Meta ont dépensé des milliards de dollars pour acheter des puces.
Nvidia nomme sa nouvelle génération de puces IA Blackwell. La première puce Blackwell – la GB200 – sera disponible plus tard cette année. Nvidia propose à ses clients des puces plus puissantes pour stimuler de nouvelles commandes. Actuellement, les clients se bousculent encore pour mettre la main sur la puce H100 Hopper.
« Hopper est génial, mais nous avons besoin de GPU plus gros », a déclaré Jensen Huang, PDG de Nvidia, lors de l'événement.
Parallèlement à la puce Blackwell, Nvidia a également introduit le logiciel NIM qui facilite le déploiement de l'IA. Selon les responsables de Nvidia, la société devient de plus en plus un fournisseur de plateformes comme Apple et Microsoft plutôt qu'un fournisseur de puces.
« Blackwell n’est pas une puce, c’est le nom d’une plateforme », a déclaré M. Huang. Le vice-président de Nvidia, Manuvir Das, promet un logiciel NIM qui aidera les programmeurs à exécuter des programmes sur n'importe quel GPU Nvidia, ancien ou nouveau, pour atteindre plus de personnes.
Blackwell, le « successeur » de Hopper
Tous les deux ans, Nvidia met à jour son architecture GPU, débloquant de nouveaux gains de performances. De nombreux modèles d’IA publiés l’année dernière ont été formés sur l’architecture Hopper qui apparaîtra en 2022.
Nvidia affirme que les puces basées sur Blackwell comme le GB200 offrent une mise à niveau significative des performances de l'IA pour les entreprises d'IA, 20 pétaflops contre 4 pétaflops sur le H100. Cette puissance de traitement permet aux entreprises d’IA de former des modèles plus grands et plus complexes.
Le GPU Blackwell est grand et combine deux matrices fabriquées séparément en une seule puce. Il est également disponible sous forme de serveur complet appelé GB200 NVLink 2, qui combine 72 GPU Blackwell et d'autres composants Nvidia conçus pour former des modèles d'IA.
Amazon, Google, Microsoft et Oracle vendront l'accès au GB200 via des services cloud. Le GB200 combine deux GPU B200 Blackwell avec un processeur Grace. Nvidia a déclaré qu'Amazon Web Services (AWS) construirait un cluster de serveurs avec 20 000 puces GB200.
Le système peut déployer un modèle de 27 000 milliards de paramètres, bien plus grand que les plus grands modèles actuels tels que GPT-4 (1 700 milliards de paramètres). De nombreux chercheurs en IA pensent que des modèles plus grands avec davantage de paramètres et de données peuvent débloquer de nouvelles capacités.
Nvidia n'a pas annoncé le prix du nouveau GB200 ou des systèmes contenant le GB200. Le H100 basé sur Hopper de Nvidia coûte entre 25 000 et 40 000 dollars par unité, et le système entier coûte jusqu'à 200 000 dollars, selon les estimations des analystes.
(Selon CNBC)
Source
Comment (0)