Vietnam.vn - Nền tảng quảng bá Việt Nam

Le danger des « robots tueurs à intelligence artificielle » menace la sécurité mondiale

Công LuậnCông Luận20/07/2024


Le tableau complexe des robots tueurs IA

Permettre à l'IA de contrôler les systèmes d'armes pourrait permettre d'identifier, d'attaquer et de détruire des cibles sans intervention humaine. Cela soulève de graves questions juridiques et éthiques.

Soulignant la gravité de la situation, le ministre autrichien des Affaires étrangères, Alexander Schallenberg, a déclaré : « C’est le moment Oppenheimer de notre génération. »

Le danger des robots tueurs menace la sécurité mondiale.

Les robots et les armes utilisant l'intelligence artificielle commencent à être largement utilisés dans les armées de nombreux pays. Photo : Forbes

En effet, la mesure dans laquelle « le génie s’est échappé de la bouteille » est devenue une question pressante, alors que les drones et l’intelligence artificielle (IA) sont largement utilisés par les armées du monde entier .

« L’utilisation de drones dans les conflits modernes entre la Russie et l’Ukraine, l’utilisation de drones par les États-Unis dans des opérations de frappe ciblée en Afghanistan et au Pakistan et, comme cela a été révélé récemment le mois dernier, dans le cadre du programme israélien Lavender, montrent comment les capacités de traitement de l’information de l’IA sont activement utilisées par les armées du monde entier pour renforcer leur puissance offensive », a déclaré Wilson Jones, analyste de la défense chez GlobalData.

Des enquêtes menées par l'Office of War Investigative Journalism, basé à Londres, ont révélé que le système d'intelligence artificielle Lavender de l'armée israélienne identifiait avec une précision de 90 % les individus liés au Hamas, ce qui signifie que 10 % n'en étaient pas. Des civils ont également été tués grâce aux capacités d'identification et de prise de décision de l'IA.

Une menace pour la sécurité mondiale

L’utilisation de l’IA de cette manière met en évidence la nécessité de gérer la technologie dans les systèmes d’armes.

« L’utilisation de l’IA dans les systèmes d’armes, en particulier lorsqu’elle est utilisée pour le ciblage, soulève des questions fondamentales sur qui nous sommes en tant qu’êtres humains et sur notre relation à la guerre, et plus particulièrement sur nos hypothèses sur la manière dont nous pourrions utiliser la violence dans les conflits armés », a expliqué à Army Technology le Dr Alexander Blanchard, chercheur principal au sein du programme Gouvernance de l’intelligence artificielle à l’Institut international de recherche sur la paix de Stockholm (SIPRI), un groupe de recherche indépendant axé sur la sécurité mondiale.

Le danger des robots tueurs menace la sécurité mondiale.

Les systèmes d'IA, utilisés dans des environnements chaotiques, peuvent se comporter de manière imprévisible et ne pas identifier précisément leurs cibles. Photo : MES

« Comment l'IA modifie-t-elle la manière dont l'armée sélectionne ses cibles et y applique la force ? Ces changements soulèvent à leur tour de nombreuses questions juridiques, éthiques et opérationnelles. Les principales préoccupations sont d'ordre humanitaire », a ajouté le Dr Blanchard.

« Nombreux sont ceux qui craignent que, selon la manière dont les systèmes autonomes sont conçus et utilisés, ils puissent exposer les civils et les autres personnes protégées par le droit international à un risque accru », a expliqué l'expert du SIPRI. « En effet, les systèmes d'IA, surtout utilisés dans des environnements chaotiques, peuvent se comporter de manière imprévisible et ne pas identifier précisément les cibles et attaquer les civils, ni identifier les combattants qui ne sont pas au combat. »

En élaborant sur la question, l'analyste de la défense de GlobalData, Wilson Jones, a noté que la question de la manière dont la culpabilité est déterminée pourrait être remise en question.

« Le droit de la guerre actuel prévoit la notion de responsabilité du commandement », a déclaré Jones. « Cela signifie qu'un officier, un général ou un autre dirigeant est légalement responsable des actes des troupes placées sous son commandement. Si des troupes commettent des crimes de guerre, l'officier est responsable, même s'il ne leur a pas donné d'ordre. Il lui incombe de prouver qu'il a tout fait pour empêcher les crimes de guerre. »

« Avec les systèmes d'IA, cela complique les choses. Un technicien informatique est-il responsable ? Un concepteur système ? La question n'est pas claire. Si ce n'est pas clair, cela crée un risque éthique si les acteurs estiment que leurs actions ne sont pas protégées par les lois en vigueur », a souligné Jones.

Le danger des robots tueurs menace la sécurité mondiale.

Un soldat américain patrouille avec un chien robot. Photo : Forbes

Conventions sur le contrôle des armements Plusieurs accords internationaux majeurs limitent et réglementent certaines utilisations des armes. Il existe des interdictions d'armes chimiques, des traités de non-prolifération nucléaire et la Convention sur certaines armes classiques, qui interdit ou limite l'utilisation d'armes spécifiques considérées comme causant des souffrances inutiles ou injustifiables aux combattants ou affectant les civils sans discrimination.

« Le contrôle des armes nucléaires a nécessité des décennies de coopération internationale et l'application de traités », explique l'analyste de la défense Wilson Jones. « Même à cette époque, nous avons poursuivi les essais atmosphériques jusqu'aux années 1990. L'une des principales raisons du succès de la non-prolifération nucléaire réside dans la coopération entre les États-Unis et l'Union soviétique au sein d'un ordre mondial bipolaire. Ce phénomène a disparu, et la technologie qui permet l'IA est plus accessible à de nombreux pays que l'énergie nucléaire. »

Un traité contraignant devrait réunir tous les acteurs concernés autour d'une table pour s'engager à ne pas utiliser un outil susceptible d'accroître leur puissance militaire. Cela a peu de chances de réussir, car l'IA peut améliorer l'efficacité militaire à un coût financier et matériel minimal.

Perspectives géopolitiques actuelles

Bien que les pays membres des Nations Unies aient reconnu la nécessité d’une utilisation militaire responsable de l’IA, il reste encore beaucoup de travail à faire.

« Sans cadre réglementaire clair, ces revendications restent largement utopiques », a déclaré Laura Petrone, analyste principale chez GlobalData, à Army Technology. « Il n'est pas surprenant que certains pays souhaitent préserver leur souveraineté lorsqu'ils prennent des décisions en matière de défense et de sécurité nationales, surtout dans le contexte actuel de tensions géopolitiques. »

Mme Petrone a ajouté que si la loi européenne sur l’IA définit certaines exigences pour les systèmes d’IA, elle ne traite pas des systèmes d’IA à des fins militaires.

« Je pense que malgré cette exclusion, la loi sur l'IA constitue un effort important pour établir un cadre attendu depuis longtemps pour les applications de l'IA, qui pourrait conduire à une certaine uniformisation des normes pertinentes à l'avenir », a-t-elle commenté. « Cette uniformité sera également importante pour l'IA dans le domaine militaire. »

Nguyen Khanh



Source : https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html

Comment (0)

No data
No data

Même sujet

Même catégorie

Pieds de porc braisés à la fausse viande de chien – Un plat typique des peuples du Nord
Matins paisibles sur la bande de terre en forme de S
Des feux d'artifice explosent, le tourisme s'accélère, Da Nang marque des points à l'été 2025
Découvrez la pêche nocturne au calmar et l'observation des étoiles de mer sur l'île aux perles de Phu Quoc

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Hệ thống Chính trị

Địa phương

Produit