Nvidia était autrefois connu comme un fabricant de puces utilisées dans les jeux vidéo, mais a déplacé son attention vers le marché des centres de données ces dernières années.
Le fabricant américain de puces électroniques a prospéré pendant la pandémie, grâce à l'explosion de la demande pour les jeux et les applications cloud et à l'engouement mondial pour le minage de cryptomonnaies. À la fin de l'exercice clos le 29 janvier, son activité de puces pour centres de données représentait plus de 50 % du chiffre d'affaires de l'entreprise.
Pendant ce temps, le chatbot populaire ChatGPT a porté l'intelligence artificielle générative (IA) à un niveau supérieur cette année, en utilisant de vastes quantités de données existantes pour générer du nouveau contenu sur des sujets allant de la poésie à la programmation informatique.
Microsoft et Alphabet, deux géants technologiques également acteurs majeurs de l'IA, sont convaincus que la technologie générative peut transformer les méthodes de travail. Tous deux se sont lancés dans une course à l'intégration de l'IA dans les moteurs de recherche et les logiciels bureautiques, avec l'ambition de dominer ce secteur.
Goldman Sachs estime que l’investissement américain dans l’IA pourrait représenter près de 1 % de la production économique du pays d’ici 2030.
Les supercalculateurs utilisés pour traiter les données et exécuter l'IA générative s'appuient sur des processeurs graphiques (GPU). Conçus pour gérer les calculs spécifiques de l'IA, les GPU sont bien plus performants que les processeurs centraux d'autres fabricants de puces comme Intel. Par exemple, ChatGPT d'OpenAI est alimenté par des milliers de GPU Nvidia.
Parallèlement, Nvidia détient environ 80 % du marché des GPU. Ses principaux concurrents sont Advanced Micro Devices et les puces d'IA développées par des entreprises technologiques comme Amazon, Google et Meta Platforms.
Le secret de la sublimation
La percée de l'entreprise a été le H100, une puce basée sur la nouvelle architecture de Nvidia appelée « Hopper », du nom de Grace Hopper, pionnière américaine de la programmation. L'explosion de l'intelligence artificielle a fait du H100 le produit phare de la Silicon Valley.
Les puces géantes utilisées dans les centres de données comptent 80 milliards de transistors, soit cinq fois plus de silicium que celui des derniers iPhone. Bien qu'elles coûtent deux fois plus cher que leur prédécesseur, l'A100 (sorti en 2020), les utilisateurs du H100 affirment qu'elles offrent trois fois plus de performances.
Le H100 s'est avéré particulièrement populaire auprès des entreprises « Big Tech » comme Microsoft et Amazon, qui construisent des centres de données entiers axés sur les charges de travail d'IA, et des startups d'IA de nouvelle génération comme OpenAI, Anthropic, Stability AI et Inflection AI, car il promet des performances supérieures, ce qui peut accélérer les lancements de produits ou réduire les coûts de formation au fil du temps.
« C'est l'une des ressources d'ingénierie les plus rares qui existent », a déclaré Brannin McBee, directeur de la stratégie et fondateur de CoreWeave, une startup cloud basée sur l'IA qui a été l'une des premières entreprises à recevoir des expéditions H100 plus tôt cette année.
D'autres clients n'ont pas eu la même chance que CoreWeave, qui a dû attendre jusqu'à six mois pour recevoir les produits nécessaires à l'entraînement de ses énormes ensembles de données. De nombreuses startups d'IA craignent que Nvidia ne parvienne pas à répondre à la demande du marché.
Elon Musk a également commandé des milliers de puces Nvidia pour sa startup d'IA, affirmant que « les GPU sont plus difficiles à trouver que les médicaments en ce moment ».
« Les coûts informatiques ont explosé. Le montant minimum dépensé en matériel serveur pour développer une IA créative a atteint 250 millions de dollars », a déclaré le PDG de Tesla.
Si le H100 arrive à point nommé, la percée de Nvidia en matière d'IA remonte à deux décennies d'innovation logicielle plutôt qu'à l'innovation matérielle. En 2006, l'entreprise a lancé le logiciel Cuda, qui exploite les GPU pour accélérer les tâches au-delà du graphisme.
« Nvidia a anticipé l'avenir avant tout le monde et s'est tournée vers les GPU programmables. Ils ont saisi l'opportunité, ont misé gros et ont constamment devancé leurs concurrents », a déclaré Nathan Benaich, associé chez Air Street Capital et investisseur dans des startups d'IA .
(Selon Reuters, FT)
Source
Comment (0)