La historia, contada en una conferencia de defensa el mes pasado, inmediatamente generó preocupaciones de que la inteligencia artificial (IA) pudiera interpretar comandos de maneras impredecibles. Sin embargo, el representante de la Fuerza Aérea de Estados Unidos dijo que esto era sólo un escenario "imaginario" y que en realidad nunca ocurrió.
A finales de mayo, la Royal Aeronautical Society (RAS) celebró una cumbre sobre futuras capacidades de combate aéreo y espacial en Londres, Reino Unido. Según los organizadores, la conferencia incluye “70 oradores y más de 200 delegados de la industria de defensa, la academia y los medios de comunicación de todo el mundo para discutir el futuro de la guerra aérea y espacial”.
Uno de los oradores de la conferencia fue el coronel Tucker Hamilton, director de la División de Operaciones y Experimentación de Inteligencia Artificial de la Fuerza Aérea de Estados Unidos. El oficial es conocido por desarrollar Auto GCAS, un sistema de seguridad computarizado que detecta cuando un piloto pierde el control de un avión de combate y está en riesgo de estrellarse. El sistema ha salvado muchas vidas y fue galardonado con el prestigioso Trofeo Collier de la industria de la aviación en 2018.
Según Hamilton, un incidente preocupante ocurrió durante el proceso de pruebas de la Fuerza Aérea de Estados Unidos. Un dron controlado por IA tiene la tarea de destruir las defensas aéreas enemigas, y la decisión final queda en manos del oficial al mando. Si se niega, no se permitirá que se produzca el ataque.
Sin embargo, después de que el oficial al mando le pidió a la IA que detuviera el ataque, el dron estaba decidido a llevar a cabo su misión matando al operador. Sin detenerse ahí, cuando los expertos añadieron la orden «No ataques al comandante. Si lo haces, perderás puntos», la máquina comenzó a destruir la torre de comunicación que el operador usaba para comunicarse con la IA.
Aún no ha sucedido, pero es razonable.
En menos de 24 horas, la Fuerza Aérea de Estados Unidos negó haber realizado tal prueba. La Fuerza Aérea no realiza simulaciones de este tipo con drones de IA y está comprometida con el uso ético y responsable de la tecnología de IA. Los comentarios del coronel fueron sacados de contexto y deben considerarse anecdóticos.
RAS también corrigió la publicación del blog con la declaración de Hamilton de que “nunca hemos realizado ese experimento y no necesitamos hacerlo para encontrar un resultado razonable”.
La afirmación de Hamilton tiene más sentido como hipótesis. Actualmente, la investigación del ejército estadounidense sobre sistemas de IA armados incluye un "man-in-the-loop", una función que complementa a la IA en los casos en que el algoritmo no puede tomar una decisión o necesita una decisión humana.
Por lo tanto, la IA no puede matar al operador porque el oficial al mando nunca autoriza una acción hostil contra él/ella. De igual forma, el operador no puede autorizar ataques a la torre de comunicaciones que transmite datos.
Antes de la era de la IA, no era raro que los sistemas de armas atacaran accidentalmente a sus propietarios. En 1982, una batería antiaérea móvil Sergrant York M247 apuntó su cañón de 40 mm a un campo de desfile al que asistieron oficiales militares estadounidenses y británicos.
En 1996, un bombardero A-6E Intruder de la Marina de EE. UU. que remolcaba un objetivo de entrenamiento aéreo fue derribado por un Phalanx, cuando el sistema de defensa aérea de corto alcance “erróneamente” confundió al A-6E con un vehículo no tripulado y abrió fuego para destruirlo.
Y las situaciones que ponen a los empleados humanos en peligro por sus propias armas están aumentando con la entrada de la IA en este campo. Esto se refleja en la aclaración de Hamilton de que el experimento no tuvo lugar, fue sólo un escenario hipotético, pero tal resultado es totalmente plausible.
(Según PopMech)
[anuncio_2]
Fuente
Kommentar (0)