La Fuerza Aérea de Estados Unidos negó el 2 de junio los informes de que realizó una simulación en la que un vehículo aéreo no tripulado (UAV) bajo el control de inteligencia artificial (IA) decidió “matar” a su operador para evitar que interfiriera con su misión, según USA Today.
La especulación comenzó el mes pasado cuando, en una conferencia en Londres, el coronel Tucker Hamilton dijo que un UAV controlado por IA utilizó “estrategias extremadamente inesperadas para lograr sus objetivos”.
Un dron MQ-9 Reaper de la Fuerza Aérea de EE. UU. en la base aérea de Kandahar, en Afganistán, en 2018.
Según él, la prueba simuló un UAV operado por IA al que se le ordenó destruir un sistema de defensa aérea enemigo. Luego, cuando el operador le ordenó ignorar el objetivo, el UAV atacó y lo mató porque este interfirió con su objetivo principal.
Sin embargo, nadie fue atacado de esa manera. En una entrevista con Business Insider , la portavoz de la Fuerza Aérea de EE. UU., Ann Stefanek, afirmó que no se realizó tal simulación.
La aterradora advertencia del exdirector ejecutivo de Google: la IA tiene el poder de “matar” a la humanidad
“La Fuerza Aérea no ha llevado a cabo ninguna de estas actividades y mantiene su compromiso con el uso ético y responsable de la tecnología de IA”, afirmó el portavoz, señalando que “parece que los comentarios del coronel fueron sacados de contexto”.
Tras la declaración de la Fuerza Aérea de EE. UU., el Sr. Hamilton aclaró que se había equivocado al hablar en su presentación en Londres. Según él, la simulación era un experimento hipotético. La Real Sociedad Aeronáutica (Reino Unido), organizadora de la conferencia, no respondió a las solicitudes de comentarios.
[anuncio_2]
Enlace de origen
Kommentar (0)