El complejo panorama de los robots asesinos con IA
Permitir que la IA controle los sistemas de armas podría significar que los objetivos se identifiquen, ataquen y destruyan sin intervención humana. Esto plantea serias cuestiones legales y éticas.
Subrayando la gravedad de la situación, el ministro de Asuntos Exteriores austriaco, Alexander Schallenberg, dijo: “Este es el momento Oppenheimer de nuestra generación”.
Los robots y las armas que utilizan inteligencia artificial se están empezando a utilizar ampliamente en los ejércitos de muchos países. Foto: Forbes
De hecho, hasta qué punto el “genio se ha escapado de la botella” se ha convertido en una pregunta urgente, a medida que los drones y la inteligencia artificial (IA) han comenzado a usarse ampliamente en los ejércitos de todo el mundo .
“El uso de drones en conflictos modernos por parte de Rusia y Ucrania, el uso de drones por parte de Estados Unidos en operaciones de ataque selectivo en Afganistán y Pakistán y, como se reveló recientemente el mes pasado, como parte del programa Lavender de Israel, muestra cómo las capacidades de procesamiento de información de la IA están siendo utilizadas activamente por los ejércitos del mundo para mejorar su poder ofensivo”, dijo Wilson Jones, analista de defensa de GlobalData.
Investigaciones de la Oficina de Periodismo de Investigación de Guerra, con sede en Londres, revelaron que el sistema de inteligencia artificial Lavender del ejército israelí tenía una precisión del 90 % al identificar a personas vinculadas a Hamás, lo que significa que el 10 % no lo eran. Esto también provocó la muerte de civiles debido a las capacidades de identificación y toma de decisiones de la inteligencia artificial.
Una amenaza para la seguridad global
El uso de la IA de esta manera resalta la necesidad de gestionar la tecnología en los sistemas de armas.
“El uso de IA en sistemas de armas, especialmente cuando se utiliza para apuntar, plantea preguntas fundamentales sobre quiénes somos como humanos y nuestra relación con la guerra, y más específicamente nuestras suposiciones sobre cómo podríamos usar la violencia en los conflictos armados”, explicó a Army Technology el Dr. Alexander Blanchard, investigador principal del programa de Gobernanza de la Inteligencia Artificial en el Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI), un grupo de investigación independiente centrado en la seguridad global.
Los sistemas de IA, al utilizarse en entornos caóticos, pueden comportarse de forma impredecible y no identificar objetivos con precisión. Foto: MES
¿Cómo cambia la IA la forma en que las fuerzas armadas seleccionan objetivos y aplican la fuerza contra ellos? Estos cambios, a su vez, plantean numerosas cuestiones legales, éticas y operativas. Las principales preocupaciones son de carácter humanitario, añadió el Dr. Blanchard.
“A muchos les preocupa que, dependiendo de cómo se diseñen y utilicen los sistemas autónomos, estos puedan poner en mayor riesgo a los civiles y a otras personas protegidas por el derecho internacional”, explicó el experto del SIPRI. “Esto se debe a que los sistemas de IA, especialmente cuando se utilizan en entornos caóticos, pueden comportarse de forma impredecible y podrían no identificar con precisión objetivos y atacar a civiles, ni identificar a combatientes que no están en combate”.
Al profundizar en el tema, el analista de defensa de GlobalData, Wilson Jones, señaló que la cuestión de cómo se determina la culpabilidad podría ser cuestionada.
“En el derecho de la guerra vigente, existe el concepto de responsabilidad de mando”, dijo Jones. “Esto significa que un oficial, general u otro líder es legalmente responsable de las acciones de las tropas bajo su mando. Si las tropas cometen crímenes de guerra, el oficial es responsable incluso si no los ordenó; la carga de la prueba recae sobre él para demostrar que hizo todo lo posible para prevenirlos”.
Con los sistemas de IA, esto complica las cosas. ¿Es responsable un técnico de TI? ¿Un diseñador de sistemas? No está claro. Si no está claro, se crea un riesgo ético si los actores creen que sus acciones no están protegidas por la legislación vigente —enfatizó Jones—.
Un soldado estadounidense patrulla con un perro robot. Foto: Forbes
Convenciones sobre control de armas. Diversos acuerdos internacionales importantes limitan y regulan ciertos usos de las armas. Existen prohibiciones de armas químicas, tratados de no proliferación nuclear y la Convención sobre Ciertas Armas Convencionales, que prohíbe o limita el uso de armas específicas que se considera que causan sufrimiento innecesario o injustificable a los combatientes o afectan indiscriminadamente a la población civil.
“El control de armas nucleares requirió décadas de cooperación internacional y tratados posteriores para su aplicación”, explica el analista de defensa Wilson Jones. “Incluso entonces, continuamos con las pruebas atmosféricas hasta la década de 1990. Una de las principales razones del éxito de la no proliferación nuclear fue la cooperación entre Estados Unidos y la Unión Soviética en el orden mundial bipolar. Esta ya no existe, y la tecnología que habilita la IA es más accesible para muchos países que la energía nuclear”.
Un tratado vinculante tendría que lograr que todos los actores relevantes se comprometieran a no utilizar una herramienta que aumente su poder militar. Es improbable que esto funcione, ya que la IA puede mejorar la eficacia militar con un coste financiero y material mínimo.
Perspectivas geopolíticas actuales
Si bien los países en las Naciones Unidas han reconocido la necesidad de un uso militar responsable de la IA, todavía queda mucho trabajo por hacer.
“Sin un marco regulatorio claro, estas afirmaciones siguen siendo en gran medida meras aspiraciones”, declaró Laura Petrone, analista principal de GlobalData, a Army Technology. “No sorprende que algunos países quieran conservar su soberanía al decidir sobre asuntos de defensa nacional y seguridad nacional, especialmente en el actual clima de tensiones geopolíticas”.
La Sra. Petrone añadió que si bien la Ley de IA de la UE establece algunos requisitos para los sistemas de IA, no aborda los sistemas de IA para fines militares.
“Creo que, a pesar de esta exclusión, la Ley de IA representa un esfuerzo importante para establecer un marco largamente esperado para las aplicaciones de IA, que podría conducir a cierto grado de uniformidad en los estándares relevantes en el futuro”, comentó. “Esta uniformidad también será importante para la IA en el ámbito militar”.
Nguyen Khanh
[anuncio_2]
Fuente: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Kommentar (0)