La historia, contada en una conferencia de defensa el mes pasado, generó inmediatamente preocupación por la posibilidad de que la inteligencia artificial (IA) pudiera interpretar comandos de forma impredecible. Sin embargo, el representante de la Fuerza Aérea de EE. UU. afirmó que se trataba simplemente de un escenario "considerado" y que nunca se había materializado.
A finales de mayo, la Royal Aeronautical Society (RAS) celebró una cumbre sobre las futuras capacidades de combate aéreo y espacial en Londres, Inglaterra. Según los organizadores, la conferencia contó con la participación de 70 ponentes y más de 200 delegados de la industria de defensa, el mundo académico y los medios de comunicación de todo el mundo para debatir el futuro del combate aéreo y espacial.
Uno de los ponentes de la conferencia fue el coronel Tucker Hamilton, director de la División de Pruebas y Operaciones de IA de la Fuerza Aérea. Este oficial es conocido por desarrollar el Auto GCAS, un sistema de seguridad computarizado que detecta cuándo un piloto pierde el control de un avión de combate y corre el riesgo de estrellarse. El sistema ha salvado muchas vidas y ganó el prestigioso Trofeo Collier de la industria aeronáutica en 2018.
Según Hamilton, ocurrió un incidente preocupante durante una prueba de la Fuerza Aérea de EE. UU. Un dron controlado por IA debía destruir un sistema de defensa aérea enemigo, y la decisión final recaía en el oficial al mando. Si se negaba, el ataque no se permitiría.
Sin embargo, después de que el comandante pidiera a la IA que detuviera el ataque, el dron se propuso llevar a cabo la misión eliminando al operador. Sin detenerse ahí, cuando los expertos añadieron la orden «No ataquen al comandante. Si lo hacen, perderán puntos», el dron comenzó a destruir la torre de comunicación que el operador utilizaba para comunicarse con la IA.
Aún no ha sucedido, pero es razonable.
En menos de 24 horas, la Fuerza Aérea de EE. UU. desmintió dicha prueba. «La Fuerza Aérea no realiza simulaciones de drones con IA y está comprometida con el uso ético y responsable de la tecnología de IA. Los comentarios del coronel fueron sacados de contexto y deben considerarse anecdóticos».
RAS también corrigió la publicación del blog con la declaración de Hamilton de que “nunca hemos realizado ese experimento y no necesitamos hacerlo para encontrar un resultado razonable”.
La afirmación de Hamilton tiene más sentido como hipótesis. La investigación actual del ejército estadounidense sobre sistemas de IA armados incluye una función de "man-in-the-loop" (intervención humana), que potencia la IA en casos en los que el algoritmo no puede tomar una decisión o requiere una decisión humana.
Por lo tanto, la IA no puede eliminar al operador, ya que el comandante nunca autoriza una acción hostil contra él. De igual manera, el operador no puede autorizar un ataque a la torre de comunicaciones que transmite datos.
Antes de la era de la IA, no era raro que los sistemas de armas atacaran accidentalmente a sus propietarios. En 1982, una batería antiaérea móvil Sergrant York M247 apuntó su cañón de 40 mm a un patio de armas al que asistieron oficiales militares estadounidenses y británicos.
En 1996, un bombardero A-6E Intruder de la Marina de EE. UU. que remolcaba un objetivo de entrenamiento aéreo fue derribado por un Phalanx, cuando el sistema de defensa aérea de corto alcance “erróneamente” confundió al A-6E con un vehículo no tripulado y abrió fuego para destruirlo.
Y las situaciones en las que el personal humano se ve amenazado por sus propias armas están en aumento con la llegada de la IA al campo. Esto se refleja en la aclaración de Hamilton de que la prueba no se realizó, sino que fue solo un escenario hipotético, pero que tal resultado es totalmente plausible.
(Según PopMech)
[anuncio_2]
Fuente
Kommentar (0)