Vietnam.vn - Nền tảng quảng bá Việt Nam

Le risque que l’IA déclenche une guerre nucléaire n’est pas de la science-fiction

(CLO) Une guerre nucléaire déclenchée par l'IA semble tout droit sortie d'un film de science-fiction. Pourtant, de nombreux scientifiques et politiciens de premier plan affirment le contraire.

Công LuậnCông Luận23/03/2025

Le danger de perdre le contrôle de l'IA

L'humanité semble ignorer un spectre qui se profile à l'horizon. Il s'agit du spectre d'une guerre nucléaire mondiale provoquée par l'intelligence artificielle (IA). Le secrétaire général de l'ONU, Antonio Guterres, a mis en garde contre ce phénomène. Mais jusqu'à présent, les États dotés de l'arme nucléaire ne se sont pas réunis pour négocier cette menace catastrophique.

Le danger d’une guerre nucléaire n’est pas à sens unique.

Le développement rapide de l'intelligence artificielle (IA) présente le risque d'une intervention de l'IA dans le processus de lancement d'armes nucléaires. Photo d'illustration

Il existe depuis longtemps un consensus informel entre les cinq plus grandes puissances nucléaires – les États-Unis, la Russie, la Chine, le Royaume-Uni et la France – sur le principe de « l’implication humaine dans la boucle », ce qui signifie que chaque pays dispose d’un système garantissant que des humains sont impliqués dans la décision de lancer des armes nucléaires.

Aucune des cinq grandes puissances n'affirme avoir déployé l'IA dans ses systèmes de commandement de lancement nucléaire. C'est vrai, mais trompeur, selon le Dr Sundeep Waslekar, président du Strategic Foresight Group, un organisme de recherche international basé à Mumbai, en Inde.

L'IA est déjà utilisée pour la détection des menaces et la sélection des cibles. Les systèmes basés sur l'IA analysent en temps réel de grandes quantités de données provenant de capteurs, de satellites et de radars, analysant les attaques de missiles entrantes et proposant des options de réponse.

L'opérateur vérifie ensuite la menace provenant de différentes sources et décide s'il faut intercepter les missiles ennemis ou lancer des frappes de représailles.

« Actuellement, le temps de réponse des opérateurs est de 10 à 15 minutes. D'ici 2030, ce délai sera réduit à 5 à 7 minutes », a déclaré Sundeep Waslekar. « Si les décisions finales seront prises par des humains, elles seront influencées par les analyses prédictives et prescriptives de l'IA. L'IA pourrait être le moteur des décisions de lancement dès les années 2030. »

Le problème est que l'IA peut se tromper. Les algorithmes de détection des menaces peuvent signaler une frappe de missile alors qu'il n'y en a pas. Cela peut être dû à des erreurs informatiques, des intrusions dans le réseau ou des facteurs environnementaux qui obscurcissent les signaux. À moins que les opérateurs humains ne puissent confirmer les fausses alertes provenant d'autres sources en deux à trois minutes, ils pourraient déclencher des frappes de représailles.

Une très petite erreur, un énorme désastre

L'utilisation de l'IA dans de nombreuses fonctions civiles, telles que la prédiction de la criminalité, la reconnaissance faciale et le pronostic du cancer, présente une marge d'erreur connue de 10 %. Dans les systèmes d'alerte nucléaire précoce, cette marge peut atteindre environ 5 %, selon Sundeep Waslekar.

À mesure que la précision des algorithmes de reconnaissance d'images s'améliorera au cours de la prochaine décennie, cette marge d'erreur pourrait chuter à 1-2 %. Mais même une marge d'erreur de 1 % pourrait déclencher une guerre nucléaire mondiale.

Qui est exposé au risque d'une guerre nucléaire ? Pas un expert nucléaire. Image 2

Les décisions de lancer une frappe nucléaire ou de riposter pourraient être déclenchées par des erreurs d'IA. Photo : Modern War Institute

Le risque pourrait s'accroître au cours des deux à trois prochaines années avec l'apparition de nouveaux logiciels malveillants capables de contourner les systèmes de détection des menaces. Ces logiciels malveillants s'adapteront pour éviter d'être détectés, identifier automatiquement leurs cibles et les attaquer automatiquement.

La Guerre froide a connu plusieurs situations de « stratégie de la corde raide ». En 1983, un satellite soviétique a détecté par erreur cinq missiles lancés par les États-Unis. Stanislaw Petrov, officier du centre de commandement russe Sepukhov-15, a conclu à une fausse alerte et n'a pas alerté ses supérieurs pour qu'ils puissent lancer une contre-attaque.

En 1995, la station radar d'Olenegorsk a détecté une attaque de missile au large des côtes norvégiennes. Les forces stratégiques russes ont été placées en état d'alerte maximale et le président russe de l'époque, Boris Eltsine, s'est vu remettre la mallette nucléaire. Soupçonnant une erreur, il n'a pas appuyé sur le bouton. Il s'est avéré qu'il s'agissait d'un missile scientifique . Si l'IA avait été utilisée pour déterminer la réponse à apporter dans l'une ou l'autre situation, les conséquences auraient pu être catastrophiques.

Les missiles hypersoniques actuels utilisent l'automatisation conventionnelle plutôt que l'IA. Ils peuvent voler à des vitesses de Mach 5 à Mach 25, échappant ainsi à la détection radar et contrôlant leur trajectoire. Les superpuissances prévoient d'améliorer leurs missiles hypersoniques grâce à l'IA pour localiser et détruire instantanément des cibles mobiles, transférant ainsi la décision de tuer des humains aux machines.

On assiste également à une course au développement de l'intelligence artificielle générale, qui pourrait conduire à des modèles d'IA fonctionnant hors de tout contrôle humain. Dans ce cas, les systèmes d'IA apprendront à s'améliorer et à se répliquer, prenant ainsi le contrôle des processus décisionnels. Si cette IA est intégrée aux systèmes d'aide à la décision pour les armes nucléaires, les machines pourront déclencher des guerres dévastatrices.

Il est temps d'agir

Face aux risques mentionnés ci-dessus, de nombreux experts estiment que l’humanité a besoin d’un accord global entre les grandes puissances pour minimiser le risque de guerre nucléaire, allant au-delà de la répétition du slogan « les humains dans la boucle ».

Cet accord devrait inclure des mesures de transparence, de responsabilité et de coopération ; des normes internationales pour les tests et l’évaluation ; des canaux de communication de crise ; des conseils de surveillance nationaux ; et des règles interdisant les modèles d’IA agressifs capables de contourner les opérateurs humains.

Qui est exposé au risque d'une guerre nucléaire ? Pas un expert nucléaire. Image 3

Le Secrétaire général António Guterres assiste à une cérémonie commémorative pour la paix à Hiroshima, ville frappée par une bombe atomique en 1945. Photo : ONU

Les changements géopolitiques créent une opportunité pour un tel pacte. D'éminents experts en IA de Chine et des États-Unis, par exemple, ont engagé plusieurs dialogues de deux axes sur les risques liés à l'IA, qui ont abouti à une déclaration commune de l'ancien président américain Joe Biden et du président chinois Xi Jinping en novembre dernier.

Le milliardaire Elon Musk est un fervent défenseur de la sauvegarde de l'humanité contre les risques existentiels posés par l'IA, et Musk pourrait exhorter l'actuel président américain Donald Trump à transformer la déclaration conjointe entre Joe Biden et Xi Jinping en un traité, selon le Dr Sundeep Waslekar.

Le défi nucléaire lié à l'IA nécessite également la participation de la Russie, selon le Dr Sundeep Waslekar. Jusqu'en janvier de cette année, la Russie refusait de discuter de toute mesure de réduction des risques nucléaires, y compris de convergence avec l'IA, à moins que le cas de l'Ukraine ne soit évoqué.

Alors que le président Donald Trump a engagé un dialogue avec le président russe Vladimir Poutine pour améliorer les relations bilatérales et mettre fin à la guerre en Ukraine, la Russie pourrait désormais être ouverte aux discussions.

En février de cette année, à la suite du discours du vice-président américain JD Vance au Sommet d'action sur l'IA de Paris, le Center for a New American Security (CNAS) a également publié un rapport intitulé « Prévenir l'apocalypse de l'IA : la concurrence entre les États-Unis, la Chine et la Russie au cœur des armes nucléaires et de l'intelligence artificielle ».

Le rapport identifie les risques les plus importants du lien entre l’IA et le nucléaire et exhorte l’administration américaine à établir un ensemble complet de mécanismes d’atténuation des risques et de gestion de crise avec la Chine et la Russie.

En septembre dernier, une soixantaine de pays, dont les États-Unis, ont adopté un « plan d'action » pour gérer l'utilisation responsable de l'IA dans l'armée lors du Sommet REAIM (Responsable AI in Military) qui s'est tenu à Séoul, en Corée du Sud. Il s'agissait de la deuxième conférence de ce type, après celle tenue à La Haye l'année dernière. De tels mouvements démontrent que le risque d'une guerre nucléaire déclenchée par l'IA n'est pas de la science-fiction.

Le monde est clairement confronté à un problème existentiel de plus en plus urgent qui nécessite une action réelle de la part des puissances nucléaires pour garantir que « chaque décision concernant l’utilisation d’armes nucléaires soit prise par des personnes, et non par des machines ou des algorithmes » – comme l’a demandé le secrétaire général de l’ONU, Antonio Guterres.

Nguyen Khanh


Comment (0)

No data
No data
Admirez la ville côtière scintillante de Gia Lai à Quy Nhon la nuit
Image de champs en terrasses à Phu Tho, en pente douce, lumineux et beaux comme des miroirs avant la saison des plantations
L'usine Z121 est prête pour la soirée finale du feu d'artifice international
Un célèbre magazine de voyage fait l'éloge de la grotte de Son Doong comme étant « la plus magnifique de la planète »
Une grotte mystérieuse attire les touristes occidentaux, comparée à la « grotte de Phong Nha » à Thanh Hoa
Découvrez la beauté poétique de la baie de Vinh Hy
Comment est transformé le thé le plus cher de Hanoi, dont le prix dépasse les 10 millions de VND/kg ?
Goût de la région fluviale
Magnifique lever de soleil sur les mers du Vietnam
L'arc majestueux de la grotte de Tu Lan

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit