L'US Air Force a démenti le 2 juin les informations selon lesquelles elle aurait mené une simulation dans laquelle un véhicule aérien sans pilote (UAV) doté d'une intelligence artificielle (IA) aurait décidé de « tuer » son opérateur humain pour l'empêcher d'interférer avec sa mission, selon USA Today.
Les spéculations ont commencé le mois dernier lorsque, lors d'une conférence à Londres, le colonel Tucker Hamilton a déclaré qu'un drone contrôlé par une intelligence artificielle utilisait des « stratégies extrêmement inattendues pour atteindre ses objectifs ».
Un drone MQ-9 Reaper de l'US Air Force sur la base aérienne de Kandahar en Afghanistan en 2018
D'après lui, le test simulait un drone piloté par une IA recevant l'ordre de détruire le système de défense aérienne adverse. Lorsque l'opérateur lui a ordonné d'ignorer la cible, le drone a attaqué et tué l'opérateur, car ce dernier avait interféré avec sa cible principale.
Cependant, personne n'a réellement été attaqué de cette manière. Dans une interview accordée à Business Insider , la porte-parole de l'US Air Force, Ann Stefanek, a déclaré qu'aucune simulation de ce type n'avait été menée.
Avertissement alarmant d'un ancien directeur de Google : l'IA a la capacité d'« éliminer » l'humanité
« L’armée de l’air n’a mené aucune activité de ce type et reste attachée à une utilisation éthique et responsable de la technologie de l’IA », a déclaré le porte-parole, notant que « les propos du colonel semblent avoir été sortis de leur contexte ».
Suite à la déclaration de l'US Air Force, M. Hamilton a précisé s'être mal exprimé lors de sa présentation à Londres. Selon lui, la simulation n'était qu'une expérience hypothétique. La Royal Aeronautical Society (Royaume-Uni), organisatrice de la conférence, n'a pas répondu aux demandes de commentaires.
Lien source






Comment (0)