Los observadores tienen opiniones diferentes sobre el acuerdo entre Estados Unidos y China sobre la aplicación de la inteligencia artificial (IA) en el ejército .
| Los observadores tienen opiniones divergentes sobre el acuerdo entre Estados Unidos y China para la aplicación de la inteligencia artificial (IA) en el ámbito militar. (Fuente: Asia Times) |
Tras la reunión entre el presidente estadounidense Joe Biden y el presidente chino Xi Jinping el 16 de noviembre (hora de Vietnam) en el marco de la Cumbre de Cooperación Económica Asia-Pacífico (APEC) 2023 en San Francisco, California, los dos países lograron varios resultados importantes, incluido el acuerdo de reanudar el contacto militar, cooperar en la lucha contra el narcotráfico (especialmente fentanilo) y discutir los riesgos y las medidas para gestionar la seguridad de la inteligencia artificial (IA).
En una conferencia de prensa posterior a la cumbre entre Estados Unidos y China, el presidente estadounidense, Joe Biden, declaró: «Reuniremos a expertos para debatir los riesgos y las cuestiones de seguridad asociadas con la aplicación de la inteligencia artificial. Cuando trabajo con líderes mundiales , todos plantean la cuestión del impacto de la inteligencia artificial. Estos son pasos concretos en la dirección correcta para determinar qué es necesario, el nivel de peligro y qué es aceptable».
El gobierno de Biden emitió recientemente su primera orden ejecutiva sobre inteligencia artificial y promovió con firmeza los estándares globales para el uso de la IA en el ámbito militar. China también ha mostrado su disposición a debatir el asunto, en particular respecto a la prohibición del uso de la IA en sus sistemas de mando y control (C2) de armas nucleares.
Aunque el presidente Biden y el anuncio de la Casa Blanca no mencionaron explícitamente el vínculo entre la IA y las armas nucleares, los expertos creían que este era un tema clave de discusión entre Estados Unidos y China antes de la reunión.
Bonnie Glaser, quien dirige el programa Indo-Pacífico del German Marshall Fund, comentó: "China está interesada en participar en discusiones para establecer reglas y estándares para la IA, y deberíamos darle la bienvenida a eso".
Este no es sólo un problema de Estados Unidos y China.
Después de que el SCMP , citando fuentes anónimas, informara que "el presidente estadounidense Joe Biden y el presidente chino Xi Jinping están listos para comprometerse a prohibir el uso de IA en sistemas de armas autónomas, incluido su uso en el control de drones (UAV) y el control y despliegue de ojivas nucleares", la opinión pública aumentó las esperanzas de una declaración conjunta entre Estados Unidos y China sobre este tema.
Sin embargo, no hay indicios de que China o Estados Unidos acepten restricciones vinculantes a su libertad de acción en el campo de la IA.
Esto no es solo un asunto de EE. UU. y China. Desde febrero de 2023, tras la publicación de su "Declaración de Política sobre el Uso Responsable de la Inteligencia Artificial en el Ámbito Militar", EE. UU. ha estado impulsando un consenso global sobre el desarrollo y el uso de la IA militar, que se aplica no solo a armas autónomas como los vehículos aéreos no tripulados (UAV), sino también a aplicaciones que utilizan algoritmos para el análisis de inteligencia o software logístico.
El objetivo de Estados Unidos es contrarrestar los pedidos de muchos activistas por la paz y naciones no alineadas que exigen una prohibición vinculante de los "robots asesinos", creando así una oportunidad para que Estados Unidos y sus aliados utilicen la IA "de manera responsable", una tecnología en rápido desarrollo con aplicaciones de amplio alcance.
También en febrero de 2023, el Pentágono emprendió una profunda revisión de su política sobre inteligencia artificial militar y sistemas autónomos. Posteriormente, la embajadora Bonnie Denise Jenkins, subsecretaria de Estado para el Control de Armamentos y la Seguridad Internacional, publicó una «Declaración Política sobre el Uso Responsable de la Inteligencia Artificial y la Autonomía en las Fuerzas Armadas» en la Cumbre de Inteligencia Artificial Responsable en las Fuerzas Armadas (REAIM), celebrada en La Haya en febrero de 2023.
El propósito de esta Declaración es describir el enfoque de Estados Unidos, que consiste en lograr un consenso internacional mediante el cual los militares puedan integrar de manera responsable la IA y la autonomía en las operaciones militares.
Desde entonces, muchos otros países han expresado su apoyo a EE. UU., incluyendo aliados clave como Australia, el Reino Unido, Francia, Alemania y Corea del Sur, así como países como Hungría, Libia y Turquía. El 14 de noviembre, la agencia de noticias Yonhap informó que EE. UU. y otros 45 países emitieron una declaración conjunta que destaca el uso responsable de la IA en el ámbito militar.
Tras la reunión entre ambos líderes, surgieron opiniones contradictorias, incluyendo evaluaciones del acuerdo entre Estados Unidos y China sobre la aplicación de la inteligencia artificial en el ámbito militar. Mientras algunos argumentaban que era necesario, otros creían que Washington estaba renunciando a su ventaja. Christopher Alexander, director de análisis del Pioneer Development Group, cuestionó la necesidad de este acuerdo, señalando que Estados Unidos estaría renunciando a su actual ventaja estratégica.
"Esta es una mala decisión. China va a la zaga de Estados Unidos en tecnología de inteligencia artificial. Por lo tanto, seguir adelante con este acuerdo significa que la administración Biden está renunciando a su ventaja estratégica", dijo Alexander.
El comentarista Samuel Mangold-Lenett también cuestionó si China respetaría dicho acuerdo, señalando su incumplimiento del Acuerdo Climático de París. Por su parte, Phil Siegel, fundador del Centro CAPTRS, argumentó que dicho acuerdo es necesario, aunque señaló que las grandes potencias como Rusia también deberían estar incluidas.
¿Qué quiere Pekín?
Como era de esperar, China aún no ha aceptado el enfoque estadounidense. El experto Tong Zhao declaró: «La estrategia diplomática del país sigue centrada en competir y contrarrestar los esfuerzos de Estados Unidos por establecer futuros estándares de gobernanza de la IA, en particular en el sector militar».
Además, según este experto, a la hora de gestionar nuevas tecnologías militares, China se opone con frecuencia a respaldar prácticas "responsables", argumentando que se trata de un "concepto político carente de claridad y objetividad".
Catherine Connolly, investigadora de Stop Killer Robots, una organización internacional que reúne a ONG que buscan prohibir las armas letales autónomas, declaró: «Claramente, esperamos que Estados Unidos avance hacia un apoyo claro y firme para establecer marcos legales que restrinjan los sistemas de armas autónomas. Creemos que las directrices y los pronunciamientos políticos no son suficientes, y la mayoría de los países tampoco».
Recientemente, el Grupo de Expertos Gubernamentales Principales (GGE) sobre armas automatizadas ha mantenido reiteradas conversaciones en Ginebra sobre temas relacionados, con el objetivo de proponer la elaboración e implementación de una ley sobre este tipo de armas, similar a la que se aplicó anteriormente a las armas químicas. Sin embargo, hasta la fecha, estos esfuerzos han sido infructuosos debido a la falta de consenso entre los países participantes.
Por lo tanto, el movimiento contra las armas de IA propuso un proyecto de resolución a la Asamblea General de las Naciones Unidas en Nueva York. En lugar de exigir una prohibición inmediata —que casi con toda seguridad fracasaría—, la resolución, propuesta por Austria, simplemente «solicita al Secretario General de la ONU que consulte la opinión de los Estados miembros».
Como resultado, el 1 de noviembre de 2023, la Asamblea General de las Naciones Unidas adoptó la Resolución L.56, la primera resolución sobre armas autónomas, que enfatizaba «la urgente necesidad de que la comunidad internacional aborde los desafíos y las preocupaciones que plantean los sistemas de armas autónomas». Empresas, investigadores académicos y organizaciones no gubernamentales presentaron informes e incorporaron oficialmente el tema a la agenda de la ONU.
La Resolución L.56 se aprobó con 164 votos a favor, 5 en contra y 8 abstenciones. China fue el único país que se abstuvo.
La investigadora Catherine Connolly considera que el hecho de que Estados Unidos y la mayoría de los demás países votaran a favor es una señal positiva, pero es lamentable que China se abstuviera.
Sin embargo, respecto a esta Resolución, China discrepa de algunos aspectos relacionados con sus características y definiciones. De hecho, Pekín tiende a utilizar una definición única y restringida de "armas autónomas", que solo considera los sistemas que, una vez desplegados, son "sin supervisión e imparables". Esto lleva a China a afirmar su apoyo a la prohibición, cuando en realidad excluye la mayoría de los sistemas autónomos que los ejércitos de muchos países están investigando y desarrollando actualmente.
El académico James Lewis sostiene que, si bien las resoluciones de la Asamblea General de las Naciones Unidas no son vinculantes, si Estados Unidos puede sumar a otros países como el Reino Unido, Francia y posiblemente la UE a un esfuerzo integral, se podría avanzar en el establecimiento de normas en esta área.
Hasta ahora, los debates internacionales sobre una “declaración política” no vinculante han obligado a Washington a moderar sus ambiciones eliminando una sección relativa a la concesión a la IA de la capacidad de controlar armas nucleares.
[anuncio_2]
Fuente







Kommentar (0)