Le risque de perdre le contrôle de l'IA
L'humanité semble ignorer un spectre à l'horizon : celui d'une guerre nucléaire mondiale provoquée par l'intelligence artificielle (IA). Le secrétaire général de l'ONU, António Guterres, a lancé un avertissement à ce sujet. Pourtant, jusqu'à présent, les États dotés de l'arme nucléaire ne se sont pas entendus pour négocier face à cette menace catastrophique.
Le développement rapide de l'intelligence artificielle (IA) fait peser le risque d'une intervention de l'IA dans le processus de lancement d'armes nucléaires. Illustration photo
Il existe depuis longtemps un consensus informel entre les cinq plus grandes puissances nucléaires – les États-Unis, la Russie, la Chine, le Royaume-Uni et la France – sur le principe de « l’humain dans la boucle », ce qui signifie que chaque pays dispose d’un système pour garantir que des humains soient impliqués dans la décision de lancer des armes nucléaires.
Aucune des cinq puissances n'affirme avoir déployé l'IA dans ses systèmes de commandement de lancement nucléaire. C'est exact, mais trompeur, selon le Dr Sundeep Waslekar, président du Strategic Foresight Group, un organisme de recherche international basé à Mumbai, en Inde.
L'IA est déjà utilisée pour la détection des menaces et la sélection des cibles. Les systèmes basés sur l'IA analysent en temps réel d'importantes quantités de données provenant de capteurs, de satellites et de radars, analysant les attaques de missiles imminentes et suggérant des options de riposte.
L'opérateur recoupe ensuite la menace avec différentes sources et décide s'il convient d'intercepter les missiles ennemis ou de lancer des frappes de représailles.
« Actuellement, le temps de réaction des opérateurs humains est de 10 à 15 minutes. D’ici 2030, il sera réduit à 5 à 7 minutes », a déclaré Sundeep Waslekar. « Si les décisions finales resteront du ressort des humains, elles seront influencées par les analyses prédictives et prescriptives de l’IA. L’IA pourrait être le principal moteur des décisions de lancement dès les années 2030. »
Le problème, c'est que l'IA peut se tromper. Les algorithmes de détection de menaces peuvent signaler une frappe de missile alors qu'il n'y en a pas. Cela peut être dû à des erreurs informatiques, des intrusions réseau ou des facteurs environnementaux qui brouillent les signaux. Si les opérateurs humains ne peuvent pas confirmer les fausses alertes auprès d'autres sources dans un délai de deux à trois minutes, elles risquent de déclencher des frappes de représailles.
Une toute petite erreur, un désastre immense
L'utilisation de l'IA dans de nombreuses fonctions civiles, telles que la prédiction de la criminalité, la reconnaissance faciale et le pronostic du cancer, présente une marge d'erreur de 10 %. Dans les systèmes d'alerte précoce nucléaire, cette marge d'erreur peut être d'environ 5 %, selon Sundeep Waslekar.
À mesure que la précision des algorithmes de reconnaissance d'images s'améliorera au cours de la prochaine décennie, cette marge d'erreur pourrait tomber à 1 ou 2 %. Mais même une marge d'erreur de 1 % pourrait déclencher une guerre nucléaire mondiale.
Les décisions d'attaquer ou de riposter contre des armes nucléaires pourraient être déclenchées par des erreurs d'IA. Photo : Modern War Institute
Le risque pourrait s'accroître au cours des deux à trois prochaines années avec l'apparition de nouveaux logiciels malveillants capables de contourner les systèmes de détection des menaces. Ces logiciels malveillants s'adapteront pour éviter d'être détectés, identifieront automatiquement leurs cibles et les attaqueront.
La Guerre froide a été marquée par plusieurs situations critiques. En 1983, un satellite soviétique a détecté par erreur le lancement de cinq missiles américains. Stanislaw Petrov, officier du centre de commandement russe Sepukhov-15, a conclu à une fausse alerte et n'a pas prévenu sa hiérarchie, empêchant ainsi une contre-attaque.
En 1995, la station radar d'Olenegorsk a détecté une attaque de missile au large des côtes norvégiennes. Les forces stratégiques russes ont été placées en état d'alerte maximale et le président Boris Eltsine s'est vu remettre la mallette nucléaire. Soupçonnant une erreur, il n'a pas actionné le déclencheur. Il s'agissait en réalité d'un missile expérimental . Si l'intelligence artificielle avait été utilisée pour déterminer la riposte dans l'une ou l'autre de ces situations, les conséquences auraient pu être catastrophiques.
Les missiles hypersoniques actuels utilisent une automatisation conventionnelle plutôt que l'intelligence artificielle. Capables d'atteindre des vitesses comprises entre Mach 5 et Mach 25, ils échappent à la détection radar et contrôlent leur trajectoire. Les superpuissances envisagent d'intégrer l'IA à ces missiles afin de localiser et de détruire instantanément des cibles mobiles, transférant ainsi la décision de tuer des humains aux machines.
On observe également une course au développement de l'intelligence artificielle générale, qui pourrait aboutir à des modèles d'IA fonctionnant hors de tout contrôle humain. Dans ce cas, les systèmes d'IA apprendront à s'améliorer et à se répliquer, prenant ainsi le contrôle des processus décisionnels. Si une telle IA est intégrée aux systèmes d'aide à la décision pour les armes nucléaires, les machines seront capables de déclencher des guerres dévastatrices.
Il est temps d'agir
Face à ces risques, de nombreux experts estiment que l'humanité a besoin d'un accord global entre les grandes puissances pour minimiser le risque de guerre nucléaire, allant au-delà de la simple répétition du slogan « l'humain dans la boucle ».
Cet accord devrait inclure des mesures de transparence, de responsabilité et de coopération ; des normes internationales pour les essais et l’évaluation ; des canaux de communication de crise ; des organes de surveillance nationaux ; et des règles visant à interdire les modèles d’IA agressifs capables de contourner les opérateurs humains.
Le Secrétaire général António Guterres assiste à une cérémonie commémorative de la paix à Hiroshima, ville frappée par une bombe atomique en 1945. Photo : ONU
Les bouleversements géopolitiques offrent une opportunité pour un tel pacte. Des experts de premier plan en IA, chinois et américains par exemple, ont mené plusieurs dialogues informels sur les risques liés à l'IA, aboutissant à une déclaration commune de l'ancien président américain Joe Biden et du président chinois Xi Jinping en novembre dernier.
Le milliardaire Elon Musk est un fervent défenseur de la nécessité de sauver l'humanité des risques existentiels posés par l'IA, et il pourrait inciter le président américain actuel, Donald Trump, à transformer la déclaration conjointe entre Joe Biden et Xi Jinping en un traité, selon le Dr Sundeep Waslekar.
D’après le Dr Sundeep Waslekar, le défi nucléaire lié à l’IA requiert également la participation de la Russie. Jusqu’en janvier dernier, la Russie refusait d’aborder toute mesure de réduction des risques nucléaires, y compris la convergence avec l’IA, sans que la question ukrainienne ne soit évoquée.
Alors que le président Donald Trump dialogue avec le président russe Vladimir Poutine pour améliorer les relations bilatérales et mettre fin à la guerre en Ukraine, la Russie pourrait désormais être ouverte aux discussions.
En février de cette année, suite au discours du vice-président américain JD Vance lors du Sommet de Paris sur l'action en matière d'IA, le Center for a New American Security (CNAS) a également publié un rapport intitulé « Prévenir une catastrophe liée à l'IA : la compétition entre les États-Unis, la Chine et la Russie au carrefour des armes nucléaires et de l'intelligence artificielle ».
Le rapport identifie les risques les plus importants liés au lien entre l'IA et le nucléaire et exhorte l'administration américaine à établir un ensemble complet de mécanismes d'atténuation des risques et de gestion des crises avec la Chine et la Russie.
En septembre dernier, une soixantaine de pays, dont les États-Unis, ont adopté un plan d'action pour une utilisation responsable de l'IA dans le domaine militaire lors du Sommet sur l'IA responsable dans le domaine militaire (REAIM), qui s'est tenu à Séoul, en Corée du Sud. Il s'agissait de la deuxième conférence de ce type, après celle de La Haye l'année précédente. Ces initiatives démontrent que le risque d'une guerre nucléaire déclenchée par l'IA n'est pas de la science-fiction.
Le monde est clairement confronté à un problème existentiel de plus en plus urgent qui exige une action concrète de la part des puissances nucléaires afin de garantir que « chaque décision concernant l’utilisation des armes nucléaires soit prise par des personnes, et non par des machines ou des algorithmes », comme l’a demandé le secrétaire général de l’ONU, António Guterres.
Nguyen Khanh










Comment (0)