Vietnam.vn - Nền tảng quảng bá Việt Nam

El riesgo de que la IA inicie una guerra nuclear no es ciencia ficción

(CLO) Una guerra nuclear iniciada por IA parece sacada de una película de ciencia ficción. Pero muchos de los principales científicos y políticos del mundo dicen que no lo es.

Công LuậnCông Luận23/03/2025

Los peligros de perder el control de la IA

La humanidad parece ignorar un espectro en el horizonte. Se trata del espectro de una guerra nuclear global causada por la inteligencia artificial (IA). El secretario general de la ONU, António Guterres, ha advertido al respecto. Sin embargo, hasta el momento, los Estados con armas nucleares no se han unido para negociar esta catastrófica amenaza.

El peligro de una guerra nuclear no es una cuestión unidireccional.

El rápido desarrollo de la inteligencia artificial (IA) plantea el riesgo de que esta pueda intervenir en el proceso de lanzamiento de armas nucleares. Foto ilustrativa.

Desde hace tiempo existe un consenso informal entre las cinco mayores potencias nucleares (Estados Unidos, Rusia, China, el Reino Unido y Francia) sobre el principio de "humanos en el circuito", lo que significa que cada país tiene un sistema para garantizar que los humanos participen en la decisión de lanzar armas nucleares.

Ninguna de las cinco principales potencias afirma haber implementado IA en sus sistemas de comando de lanzamiento nuclear. Esto es cierto, pero engañoso, según el Dr. Sundeep Waslekar, presidente del Strategic Foresight Group, una organización internacional de investigación con sede en Bombay, India.

La IA ya se utiliza para la detección de amenazas y la selección de objetivos. Los sistemas basados en IA analizan grandes cantidades de datos de sensores, satélites y radares en tiempo real, analizando los ataques con misiles y sugiriendo opciones de respuesta.

Luego, el operador verifica la amenaza de diferentes fuentes y decide si interceptar los misiles enemigos o lanzar ataques de represalia.

“Actualmente, el tiempo de respuesta disponible para los operadores es de 10 a 15 minutos. Para 2030, este tiempo se reducirá a entre 5 y 7 minutos”, afirmó Sundeep Waslekar. “Si bien las decisiones finales las tomarán los humanos, estas se verán influenciadas por el análisis predictivo y prescriptivo de la IA. La IA podría ser el motor de las decisiones de lanzamiento ya en la década de 2030”.

El problema es que la IA puede equivocarse. Los algoritmos de detección de amenazas pueden indicar un ataque con misiles cuando no se está produciendo ninguno. Esto podría deberse a errores informáticos, intrusiones en la red o factores ambientales que oscurecen las señales. A menos que los operadores humanos puedan confirmar falsas alarmas de otras fuentes en un plazo de dos a tres minutos, podrían desencadenar ataques de represalia.

Un error muy pequeño, un desastre enorme

Se sabe que el uso de IA en muchas funciones civiles, como la predicción de delitos, el reconocimiento facial y el pronóstico del cáncer, tiene un margen de error del 10 %. En los sistemas de alerta temprana nuclear, este margen puede rondar el 5 %, según Sundeep Waslekar.

A medida que la precisión de los algoritmos de reconocimiento de imágenes mejore durante la próxima década, este margen de error podría reducirse al 1-2 %. Pero incluso un margen de error del 1 % podría desencadenar una guerra nuclear global.

¿Quién está en riesgo de una guerra nuclear? No soy un experto nuclear. Imagen 2

Las decisiones de lanzar un ataque nuclear o tomar represalias podrían estar condicionadas por errores de la IA. Foto: Modern War Institute

El riesgo podría aumentar en los próximos dos o tres años a medida que surja nuevo malware capaz de eludir los sistemas de detección de amenazas. Este malware se adaptará para evitar la detección, identificará automáticamente los objetivos y los atacará automáticamente.

Durante la Guerra Fría se produjeron varias situaciones arriesgadas. En 1983, un satélite soviético detectó por error cinco misiles lanzados por Estados Unidos. Stanislaw Petrov, oficial del centro de mando ruso Sepukhov-15, concluyó que se trataba de una falsa alarma y no alertó a sus superiores para que pudieran lanzar un contraataque.

En 1995, la estación de radar de Olenegorsk detectó un ataque con misiles frente a la costa de Noruega. Las fuerzas estratégicas rusas se pusieron en alerta máxima y el entonces presidente ruso, Boris Yeltsin, recibió el maletín nuclear. Sospechó que se trataba de un error y no pulsó el botón. Resultó ser un misil científico . Si se hubiera utilizado IA para determinar la respuesta en cualquiera de las dos situaciones, los resultados podrían haber sido catastróficos.

Los misiles hipersónicos actuales utilizan automatización convencional en lugar de IA. Pueden viajar a velocidades de Mach 5 a Mach 25, evadiendo la detección de radar y controlando sus trayectorias de vuelo. Las superpotencias planean mejorar los misiles hipersónicos con IA para localizar y destruir instantáneamente objetivos en movimiento, trasladando la decisión de matar de los humanos a las máquinas.

También existe una carrera por desarrollar inteligencia artificial general, lo que podría conducir a modelos de IA que operen más allá del control humano. Cuando esto suceda, los sistemas de IA aprenderán a mejorarse y replicarse, asumiendo el control de los procesos de toma de decisiones. Si dicha IA se integra en sistemas de apoyo a la toma de decisiones para armas nucleares, las máquinas podrán iniciar guerras devastadoras.

Es hora de actuar

Ante los riesgos citados, muchos expertos consideran que la humanidad necesita un acuerdo global entre las grandes potencias para minimizar el riesgo de una guerra nuclear, yendo más allá de repetir el lema “humanos en el circuito”.

Este acuerdo debería incluir medidas de transparencia, rendición de cuentas y cooperación; estándares internacionales para pruebas y evaluación; canales de comunicación de crisis; juntas nacionales de supervisión; y reglas para prohibir modelos de IA agresivos capaces de eludir a los operadores humanos.

¿Quién está en riesgo de una guerra nuclear? No soy un experto nuclear. Imagen 3

El Secretario General António Guterres asiste a una ceremonia conmemorativade la paz en Hiroshima, ciudad que fue alcanzada por una bomba atómica en 1945. Foto: ONU

Los cambios geopolíticos están creando una oportunidad para un pacto de este tipo. Destacados expertos en IA de China y Estados Unidos, por ejemplo, han participado en varios diálogos de segunda vía sobre los riesgos de la IA, que culminaron en una declaración conjunta del expresidente estadounidense Joe Biden y el presidente chino Xi Jinping el pasado noviembre.

El multimillonario Elon Musk es un firme defensor de salvar a la humanidad de los riesgos existenciales que plantea la IA, y Musk puede instar al actual presidente de Estados Unidos, Donald Trump, a convertir la declaración conjunta entre Joe Biden y Xi Jinping en un tratado, según el Dr. Sundeep Waslekar.

El desafío nuclear de la IA también requiere la participación de Rusia, según el Dr. Sundeep Waslekar. Hasta enero de este año, Rusia se negó a discutir cualquier medida para reducir el riesgo nuclear, incluida la convergencia con la IA, a menos que se mencionara a Ucrania.

Ahora que el presidente Donald Trump está dialogando con el presidente ruso Vladimir Putin para mejorar las relaciones bilaterales y poner fin a la guerra en Ucrania, Rusia podría estar abierta a las conversaciones.

En febrero de este año, tras el discurso del vicepresidente estadounidense J.D. Vance en la Cumbre de Acción sobre IA de París, el Centro para una Nueva Seguridad Estadounidense (CNAS) también publicó un informe titulado "Cómo prevenir el fin del mundo de la IA: la competencia entre Estados Unidos, China y Rusia en el nexo de las armas nucleares y la inteligencia artificial".

El informe identifica los riesgos más significativos del nexo entre la IA y la energía nuclear e insta a la administración estadounidense a establecer un conjunto integral de mecanismos de mitigación de riesgos y gestión de crisis con China y Rusia.

En septiembre del año pasado, cerca de 60 países, incluido Estados Unidos, adoptaron un plan de acción para gestionar el uso responsable de la IA en el ámbito militar en la Cumbre de IA Responsable en el Ámbito Militar (REAIM), celebrada en Seúl, Corea del Sur. Esta fue la segunda conferencia de este tipo, tras la celebrada en La Haya el año pasado. Estas iniciativas demuestran que el riesgo de una guerra nuclear provocada por la IA no es ciencia ficción.

El mundo se enfrenta claramente a un problema existencial cada vez más urgente que requiere acciones reales por parte de las potencias nucleares para garantizar que “toda decisión sobre el uso de armas nucleares sea tomada por personas, no por máquinas o algoritmos”, como ha pedido el Secretario General de las Naciones Unidas, Antonio Guterres.

Nguyen Khanh


Kommentar (0)

No data
No data
Escena mágica en la colina del té "cuenco al revés" en Phu Tho
Tres islas de la región central se asemejan a las Maldivas y atraen turistas en verano.
Contemple la brillante ciudad costera de Quy Nhon, Gia Lai, por la noche.
Imagen de campos en terrazas en Phu Tho, con suave pendiente, brillantes y hermosos como espejos antes de la temporada de siembra.
La fábrica Z121 está lista para la Noche Final Internacional de Fuegos Artificiales
La famosa revista de viajes elogia la cueva Son Doong como "la más magnífica del planeta"
Una cueva misteriosa atrae a turistas occidentales, comparada con la "cueva Phong Nha" en Thanh Hoa
Descubra la belleza poética de la bahía de Vinh Hy
¿Cómo se procesa el té más caro de Hanoi, cuyo precio supera los 10 millones de VND/kg?
Sabor de la región del río

Herencia

Cifra

Negocio

No videos available

Noticias

Sistema político

Local

Producto