
Le New York Times a rapporté que l'approbation de la puce H200 est intervenue après des mois de négociations entre les partisans de cette puce et les factions bellicistes de la défense américaine. - Photo : Reuters
La décision du président Donald Trump d'autoriser Nvidia à exporter ses puces d'IA H200 avancées vers la Chine à condition qu'elle partage 25 % des revenus marque un tournant dans la politique technologique sino-américaine, reflétant le bras de fer entre intérêts économiques et sécurité nationale.
Le président Trump a annoncé le 8 décembre que Nvidia serait autorisée à exporter la puce H200 vers des « clients agréés » en Chine et ailleurs, à condition que le gouvernement américain reçoive 25 % des recettes.
Le président chinois Xi Jinping a « répondu favorablement » à la proposition, a écrit Trump sur le réseau social Truth Social. Il a affirmé que cette politique « soutiendra l’emploi américain, renforcera l’industrie manufacturière américaine et profitera aux contribuables américains » et qu’une approche similaire s’appliquerait à AMD, Intel et d’autres grandes entreprises américaines.
La puce H200 et son importance stratégique.
La H200 est une puce d'IA avancée pour centres de données, introduite en 2024, appartenant à la génération Hopper, et actuellement utilisée par de nombreuses grandes entreprises d'IA aux États-Unis.
La puce utilise la puce logique GH100, une puce mémoire à six couches et à large bande passante (HBM) que Nvidia présente comme offrant des « performances exceptionnelles en matière d'inférence IA ».
Avant l'annonce de Trump, cette puce était soumise à des contrôles stricts à l'exportation car ses performances de traitement globales dépassaient de près de 10 fois les limites réglementées.
Selon une analyse publiée le 7 décembre par l'Institute for the Advancement (IFP) aux États-Unis, les laboratoires d'IA chinois pourraient utiliser H200 pour construire de puissants supercalculateurs d'entraînement d'IA comparables à ceux actuellement utilisés dans les laboratoires d'IA américains.
En août, Nvidia et son concurrent AMD ont convenu de reverser 15 % des revenus provenant des ventes de puces à la Chine au gouvernement américain.
Cependant, selon CNBC, des informations circulaient à l'époque selon lesquelles la Chine avait mis en garde les entreprises nationales contre l'utilisation de la puce d'IA H20, conçue par Nvidia spécifiquement pour le marché chinois. La H200 est une puce plus performante que la H20, mais elle n'est pas le produit phare de l'entreprise.
Le mois dernier, l'administration Trump a décidé de ne pas exporter vers la Chine la puce d'intelligence artificielle haut de gamme Blackwell de Nvidia. Cette nouvelle annonce laisse penser que Washington n'a pas encore pris de décision définitive quant à une rupture totale de ses liens technologiques avec Pékin dans le domaine de l'IA.
Lutte intérieure
Cette nouvelle initiative marque un tournant dans la stratégie de Trump, faisant suite à une campagne menée par Jensen Huang, PDG de Nvidia, et David Sacks, son conseiller en matière d'IA et de cryptomonnaie.
Ils ont écarté les préoccupations de sécurité nationale liées aux puces d'IA, arguant que l'augmentation des ventes de Nvidia à la Chine rendrait les entreprises chinoises dépendantes de la technologie américaine et générerait davantage de revenus pour développer les futures générations de puces.
La semaine dernière, M. Huang a rencontré M. Trump à la Maison Blanche, et M. Trump a par la suite fait l'éloge du PDG.
« Nous saluons la décision du président Trump d'autoriser l'industrie américaine des semi-conducteurs à être compétitive afin de soutenir les emplois bien rémunérés et la production manufacturière aux États-Unis », a déclaré un porte-parole de Nvidia à CNBC le 9 décembre.
Le New York Times a rapporté que l'approbation de la puce H200 est intervenue après des mois de négociations entre les défenseurs de l'industrie des semi-conducteurs et les factions partisanes d'une défense belliciste. L'administration américaine a également passé des mois à débattre de cette question.
L'analyse d'IFP souligne que la décision d'autoriser l'exportation de quantités importantes de puces Hopper de pointe vers la Chine aura plusieurs conséquences majeures. Premièrement, elle s'écarte sensiblement de la stratégie actuelle de contrôle des exportations. Ceci est important car les entreprises chinoises, notamment Huawei, ne devraient pas être en mesure de produire des puces d'IA de niveau H200 avant au moins le quatrième trimestre 2027.
Deuxièmement, grâce à la puce Hopper, les laboratoires d'IA chinois pourront construire des supercalculateurs d'IA aux performances comparables à celles des États-Unis, mais pour un coût seulement 50 % supérieur – négligeable au regard des vastes ressources et des objectifs ambitieux de Pékin dans ce secteur technologique clé.
Enfin, il y a la question de l'argument de Huang concernant la « dépendance à l'égard de la technologie américaine ». Importer des puces des États-Unis pourrait effectivement ralentir les efforts de localisation de la Chine. Cependant, le pic de production actuel de Huawei reste nettement inférieur à la demande intérieure, ce qui signifie que les puces américaines ne feraient que compléter la capacité de calcul globale de la Chine, sans pour autant remplacer la production nationale.
Pékin peut également maintenir une demande artificielle de puces nationales par le biais de commandes et de restrictions sur les puces étrangères dans les infrastructures critiques, comme il le fait depuis longtemps, indépendamment des politiques d'exportation américaines.
L'écart technologique reste important.
Même si la Chine parvient à produire des puces à grande échelle, ses conceptions actuelles restent moins compétitives que le H200. Selon une feuille de route triennale récemment annoncée, Huawei ne devrait pas produire de puces d'IA capables de rivaliser avec le H200 avant au moins le quatrième trimestre 2027. D'ici là, le H200 restera supérieur à toute puce chinoise de fabrication locale.
Comparé à la meilleure puce chinoise actuelle – la Huawei Ascend 910C – le H200 offre une puissance de traitement environ 32 % supérieure (un facteur clé dans les performances d'entraînement de l'IA) et une bande passante mémoire 50 % supérieure (un facteur clé dans les performances d'inférence).
En termes de performances par rapport au coût, le H200 offre un avantage d'environ 16 % par rapport au 910C pour le traitement et de 32 % pour la bande passante mémoire, selon IFP.
Source : https://tuoitre.vn/nhung-he-qua-chien-luoc-cua-mot-con-chip-20251210062422804.htm










Comment (0)