
Fondée en 2019, Enfabrica se distingue par sa technologie permettant de connecter plus de 100 000 GPU au sein d'un système unique. Cette solution peut aider Nvidia à concevoir des clusters de puces d'IA intégrés fonctionnant comme un supercalculateur. Il s'agit d'une avancée majeure, car les systèmes GPU modernes, tels que le rack contenant 72 GPU Blackwell, deviennent le cœur des datacenters valant plusieurs milliards de dollars.
Cet accord est similaire à une « acquisition de talents » – une pratique utilisée par de grandes entreprises technologiques telles que Meta, Google ou Microsoft pour attirer des talents en IA sans se heurter aux obstacles juridiques des opérations de fusion-acquisition.
En juin, Meta a dépensé 14,3 milliards de dollars pour s'attacher les services d'Alexandr Wang, fondateur de Scale AI, tandis que Google et Microsoft ont également conclu des accords similaires avec Windsurf et Inflection.
Nvidia s'est montrée relativement peu active en matière d'acquisitions. Sa seule acquisition majeure à ce jour est le rachat de Mellanox pour 6,9 milliards de dollars en 2019, qui lui a permis d'acquérir une technologie réseau essentielle pour la génération de puces Blackwell.
En 2022, le projet d'acquisition d'Arm a échoué en raison de contraintes juridiques. Cependant, le géant des semi-conducteurs a récemment accéléré ses investissements : il a dépensé 700 millions de dollars pour racheter Run:ai, investi 5 milliards de dollars dans Intel pour développer conjointement des puces d'IA et près de 700 millions de dollars dans la start-up britannique de centres de données Nscale.
Avec Enfabrica, Nvidia a non seulement intégré une technologie d'interconnexion GPU à grande échelle, mais a également recruté une équipe de spécialistes de haut niveau. Il s'agit d'un élément essentiel qui permet à l'entreprise de conserver sa place centrale dans l'engouement mondial pour l'IA, initié par ChatGPT.
(Selon CNBC)
Source : https://vietnamnet.vn/nvidia-chi-gan-ty-usd-de-co-duoc-su-phuc-vu-cua-mot-nhan-tai-2444852.html






Comment (0)