Vietnam.vn - Nền tảng quảng bá Việt Nam

Le danger des « robots tueurs IA » menace la sécurité mondiale

Công LuậnCông Luận20/07/2024


Le tableau complexe de l'utilisation des robots tueurs IA

Permettre à l'IA de contrôler des systèmes d'armes pourrait permettre d'identifier, d'attaquer et de détruire des cibles sans intervention humaine. Cela soulève de graves questions juridiques et éthiques.

Soulignant la gravité de la situation, le ministre autrichien des Affaires étrangères, Alexander Schallenberg, a déclaré : « C’est le moment Oppenheimer de notre génération. »

Le danger des robots tueurs menace la sécurité mondiale.

Les robots et les armes utilisant l'intelligence artificielle commencent à être largement utilisés dans les armées de nombreux pays. Photo : Forbes

En effet, la mesure dans laquelle « le génie s’est échappé de la bouteille » est devenue une question pressante, alors que les drones et l’intelligence artificielle (IA) sont largement utilisés par les armées du monde entier .

« L’utilisation de drones dans les conflits modernes entre la Russie et l’Ukraine, l’utilisation de drones par les États-Unis dans des opérations de frappe ciblée en Afghanistan et au Pakistan et, comme cela a été révélé récemment le mois dernier, dans le cadre du programme israélien Lavender, montrent comment les capacités de traitement de l’information de l’IA sont activement utilisées par les armées du monde entier pour renforcer leur puissance offensive », a déclaré Wilson Jones, analyste de la défense chez GlobalData.

Des enquêtes menées par l'Office of War Investigative Journalism, basé à Londres, ont révélé que le système d'intelligence artificielle Lavender de l'armée israélienne identifiait avec une précision de 90 % les individus liés au Hamas, ce qui signifie que 10 % n'en étaient pas. Cela a entraîné la mort de civils grâce aux capacités d'identification et de prise de décision de l'IA.

Une menace pour la sécurité mondiale

L’utilisation de l’IA de cette manière souligne la nécessité de gérer la technologie dans les systèmes d’armes.

« L’utilisation de l’IA dans les systèmes d’armes, en particulier lorsqu’elle est utilisée à des fins de ciblage, soulève des questions fondamentales sur nous – les humains – et sur notre relation à la guerre, et plus particulièrement sur nos hypothèses sur la manière dont nous pourrions utiliser la violence dans les conflits armés », a expliqué à Army Technology le Dr Alexander Blanchard, chercheur principal au sein du programme Gouvernance de l’intelligence artificielle à l’Institut international de recherche sur la paix de Stockholm (SIPRI), un groupe de recherche indépendant axé sur la sécurité mondiale.

Le danger des robots tueurs menace la sécurité mondiale.

Les systèmes d'IA, utilisés dans des environnements chaotiques, peuvent se comporter de manière imprévisible et ne pas identifier précisément leurs cibles. Photo : MES

« L'IA modifie-t-elle la manière dont l'armée sélectionne ses cibles et y applique la force ? Ces changements soulèvent à leur tour de nombreuses questions juridiques, éthiques et opérationnelles. Les principales préoccupations sont d'ordre humanitaire », a ajouté le Dr Blanchard.

« Nombreux sont ceux qui craignent que, selon la manière dont les systèmes autonomes sont conçus et utilisés, ils puissent exposer les civils et les autres personnes protégées par le droit international à un risque accru », a expliqué l'expert du SIPRI. « En effet, les systèmes d'IA, surtout utilisés dans des environnements chaotiques, peuvent fonctionner de manière imprévisible et ne pas identifier précisément les cibles et attaquer les civils, ni identifier les combattants qui ne sont pas au combat. »

Développant la question, l'analyste de la défense de GlobalData, Wilson Jones, a noté que la question de la manière dont la culpabilité est déterminée pourrait être discutable.

« Le droit de la guerre actuel prévoit la notion de responsabilité du commandement », a déclaré M. Jones. « Cela signifie qu'un officier, un général ou tout autre dirigeant est légalement responsable des actes des troupes placées sous son commandement. Si des troupes commettent des crimes de guerre, l'officier est responsable même s'il n'a pas donné les ordres ; il lui incombe de prouver qu'il a tout mis en œuvre pour empêcher les crimes de guerre. »

« Avec les systèmes d'IA, cela complique les choses. Un technicien informatique est-il responsable ? Un concepteur système ? La question n'est pas claire. Si ce n'est pas clair, cela crée un risque moral si les acteurs estiment que leurs actions ne sont pas protégées par les lois en vigueur », a souligné M. Jones.

Le danger des robots tueurs menace la sécurité mondiale.

Un soldat américain patrouille avec un chien robot. Photo : Forbes

Conventions sur le contrôle des armements. Plusieurs accords internationaux majeurs limitent et réglementent certaines utilisations des armes. Il existe des traités d'interdiction des armes chimiques, des traités de non-prolifération nucléaire et la Convention sur certaines armes classiques, qui interdit ou limite l'utilisation d'armes spécifiques considérées comme causant des souffrances inutiles ou injustifiables aux belligérants ou affectant les civils sans discrimination.

« La maîtrise des armes nucléaires a nécessité des décennies de coopération internationale et l'application de traités ultérieurs », explique l'analyste de la défense Wilson Jones. « Même à cette époque, nous avons poursuivi les essais atmosphériques jusqu'aux années 1990. L'une des principales raisons du succès de la non-prolifération nucléaire réside dans la coopération entre les États-Unis et l'Union soviétique au sein d'un ordre mondial bipolaire. Ce n'est plus le cas aujourd'hui, et la technologie à l'origine de l'IA est plus accessible à de nombreux pays que l'énergie nucléaire. »

Un traité contraignant devrait réunir tous les acteurs concernés pour s'engager à ne pas utiliser un outil susceptible d'accroître leur puissance militaire. Cela a peu de chances de réussir, car l'IA peut améliorer l'efficacité militaire à un coût financier et matériel minimal.

Perspectives géopolitiques actuelles

Bien que les pays membres des Nations Unies aient reconnu la nécessité d’une utilisation militaire responsable de l’IA, il reste encore beaucoup de travail à faire.

« Sans cadre réglementaire clair, ces revendications restent largement utopiques », a déclaré Laura Petrone, analyste principale chez GlobalData, à Army Technology. « Il n'est pas surprenant que certains pays souhaitent préserver leur souveraineté lorsqu'ils prennent des décisions en matière de défense et de sécurité nationales, surtout dans le contexte géopolitique actuel. »

Mme Petrone a ajouté que si la loi européenne sur l’IA définit certaines exigences pour les systèmes d’IA, elle ne traite pas des systèmes d’IA à des fins militaires.

« Je pense que malgré cette exclusion, la loi sur l'IA constitue un effort important pour établir un cadre attendu depuis longtemps pour les applications de l'IA, ce qui pourrait conduire à une certaine uniformisation des normes pertinentes à l'avenir », a-t-elle commenté. « Cette uniformité sera également importante pour l'IA dans le domaine militaire. »

Nguyen Khanh



Source : https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html

Comment (0)

No data
No data

Même sujet

Même catégorie

Garder l'esprit de la fête de la mi-automne à travers les couleurs des figurines
Découvrez le seul village du Vietnam dans le top 50 des plus beaux villages du monde
Pourquoi les lanternes à drapeau rouge avec des étoiles jaunes sont-elles populaires cette année ?
Le Vietnam remporte le concours musical Intervision 2025

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Événements actuels

Système politique

Locale

Produit