Vietnam.vn - Nền tảng quảng bá Việt Nam

O risco de a inteligência artificial iniciar uma guerra nuclear não é ficção científica.

(CLO) Uma guerra nuclear iniciada por inteligência artificial parece algo saído de um filme de ficção científica. Mas muitos dos principais cientistas e políticos do mundo dizem que não é.

Công LuậnCông Luận23/03/2025

O risco de perder o controle da IA

A humanidade parece estar ignorando um espectro no horizonte: o espectro de uma guerra nuclear global causada pela inteligência artificial (IA). O Secretário-Geral da ONU, António Guterres, já alertou sobre isso. Mas, até agora, os estados com armas nucleares não se uniram para negociar essa ameaça catastrófica.

O perigo de uma guerra nuclear não é um mito.

O rápido desenvolvimento da inteligência artificial (IA) representa o risco de que a IA possa interferir no processo de lançamento de armas nucleares. Foto ilustrativa.

Há muito tempo existe um consenso informal entre as cinco maiores potências nucleares – EUA, Rússia, China, Reino Unido e França – sobre o princípio da “intervenção humana”, o que significa que cada país possui um sistema para garantir que os seres humanos estejam envolvidos na decisão de lançar armas nucleares.

Nenhuma das cinco potências afirma ter implementado IA em seus sistemas de comando de lançamento nuclear. Isso é verdade, mas enganoso, segundo o Dr. Sundeep Waslekar, presidente do Strategic Foresight Group, uma organização internacional de pesquisa em Mumbai, Índia.

A inteligência artificial já está sendo usada para detecção de ameaças e seleção de alvos. Sistemas baseados em IA analisam grandes quantidades de dados de sensores, satélites e radares em tempo real, analisando ataques de mísseis e sugerindo opções de resposta.

O operador então compara as ameaças provenientes de diferentes fontes e decide se intercepta os mísseis inimigos ou lança ataques retaliatórios.

“Atualmente, o tempo de reação disponível para operadores humanos é de 10 a 15 minutos. Até 2030, esse tempo será reduzido para 5 a 7 minutos”, disse Sundeep Waslekar. “Embora os humanos tomem as decisões finais, elas serão influenciadas pelas análises preditivas e prescritivas da IA. A IA poderá ser a força motriz por trás das decisões de lançamento já na década de 2030.”

O problema é que a IA pode falhar. Algoritmos de detecção de ameaças podem indicar um ataque de míssil quando este não está ocorrendo. Isso pode ser devido a erros de computador, intrusões na rede ou fatores ambientais que obscurecem os sinais. A menos que operadores humanos consigam confirmar alarmes falsos de outras fontes dentro de dois a três minutos, eles podem desencadear ataques retaliatórios.

Um pequeno erro pode causar um desastre enorme.

Sabe-se que o uso de IA em muitas funções civis, como previsão de crimes, reconhecimento facial e prognóstico de câncer, tem uma margem de erro de 10%. Em sistemas de alerta precoce nuclear, a margem de erro pode ser de cerca de 5%, de acordo com Sundeep Waslekar.

À medida que a precisão dos algoritmos de reconhecimento de imagem melhorar na próxima década, essa margem de erro poderá cair para 1-2%. Mas mesmo uma margem de erro de 1% poderia desencadear uma guerra nuclear global.

O perigo de uma guerra nuclear não é um mito.

Decisões de atacar ou retaliar contra armas nucleares podem ser desencadeadas por erros de IA. Foto: Modern War Institute

O risco poderá aumentar nos próximos dois a três anos, à medida que surgirem novos malwares capazes de burlar os sistemas de detecção de ameaças. Esses malwares se adaptarão para evitar a detecção, identificar alvos automaticamente e atacá-los.

Durante a Guerra Fria, ocorreram diversas situações de "política de risco". Em 1983, um satélite soviético detectou erroneamente cinco mísseis lançados pelos Estados Unidos. Stanislaw Petrov, um oficial do centro de comando russo Sepukhov-15, concluiu que se tratava de um alarme falso e não alertou seus superiores para que pudessem lançar um contra-ataque.

Em 1995, a estação de radar de Olenegorsk detectou um ataque de míssil na costa da Noruega. As forças estratégicas da Rússia foram colocadas em alerta máximo e o então presidente Boris Yeltsin recebeu a maleta nuclear. Ele suspeitou que fosse um engano e não apertou o botão. Descobriu-se que se tratava de um míssil científico . Se a inteligência artificial tivesse sido usada para determinar a resposta em qualquer uma das situações, os resultados poderiam ter sido catastróficos.

Atualmente, os mísseis hipersônicos utilizam automação convencional em vez de inteligência artificial. Eles podem viajar a velocidades entre Mach 5 e Mach 25, evitando a detecção por radar e controlando suas trajetórias de voo. As superpotências planejam aprimorar os mísseis hipersônicos com inteligência artificial para localizar e destruir instantaneamente alvos em movimento, transferindo a decisão de matar dos humanos para as máquinas.

Há também uma corrida para desenvolver inteligência artificial geral, o que pode levar a modelos de IA que operam além do controle humano. Quando isso acontecer, os sistemas de IA aprenderão a se aprimorar e se replicar, assumindo os processos de tomada de decisão. Se essa IA for integrada a sistemas de apoio à decisão para armas nucleares, as máquinas poderão iniciar guerras devastadoras.

Chegou a hora de agir.

Diante dos riscos acima mencionados, muitos especialistas acreditam que a humanidade precisa de um acordo abrangente entre as grandes potências para minimizar o risco de guerra nuclear, indo além da mera repetição do slogan "humanos no circuito".

Este acordo deve incluir medidas de transparência, responsabilização e cooperação; normas internacionais para testes e avaliação; canais de comunicação em situações de crise; conselhos nacionais de supervisão; e regras para proibir modelos de IA agressivos capazes de contornar operadores humanos.

O perigo da guerra nuclear não é um especialista em imagens 3D.

O Secretário-Geral António Guterres participa de uma cerimônia em memória dos mortos da guerra em Hiroshima, cidade atingida por uma bomba atômica em 1945. Foto: ONU

As mudanças geopolíticas estão criando uma oportunidade para um pacto desse tipo. Os principais especialistas em IA da China e dos EUA, por exemplo, participaram de uma série de diálogos informais sobre os riscos da IA, o que levou a uma declaração conjunta do ex-presidente dos EUA, Joe Biden, e do presidente chinês, Xi Jinping, em novembro passado.

O bilionário Elon Musk é um forte defensor da necessidade de salvar a humanidade dos riscos existenciais representados pela IA e pode instar o atual presidente dos EUA, Donald Trump, a transformar a declaração conjunta entre Joe Biden e Xi Jinping em um tratado, de acordo com o Dr. Sundeep Waslekar.

O desafio da IA ​​e do setor nuclear também exige a participação da Rússia, segundo o Dr. Sundeep Waslekar. Até janeiro deste ano, a Rússia se recusava a discutir quaisquer medidas de redução do risco nuclear, incluindo a convergência com a IA, a menos que a Ucrânia fosse mencionada.

Com o presidente Donald Trump em diálogo com o presidente russo Vladimir Putin para melhorar as relações bilaterais e pôr fim à guerra na Ucrânia, a Rússia pode agora estar aberta a negociações.

Em fevereiro deste ano, após o discurso do vice-presidente dos EUA, JD Vance, na Cúpula de Ação sobre IA em Paris, o Centro para uma Nova Segurança Americana (CNAS) também publicou um relatório intitulado "Prevenindo um Apocalipse da IA: Competição EUA-China-Rússia no Intercâmbio de Armas Nucleares e Inteligência Artificial".

O relatório identifica os riscos mais significativos da relação entre inteligência artificial e energia nuclear e insta o governo dos EUA a estabelecer um conjunto abrangente de mecanismos de mitigação de riscos e gestão de crises com a China e a Rússia.

Anteriormente, em setembro do ano passado, cerca de 60 países, incluindo os EUA, adotaram um "plano de ação" para gerenciar o uso responsável da IA ​​nas forças armadas durante a Cúpula sobre IA Responsável nas Forças Armadas (REAIM), realizada em Seul, Coreia do Sul. Esta foi a segunda conferência desse tipo, após a realizada em Haia no ano anterior. Essas iniciativas demonstram que o risco de uma guerra nuclear iniciada por IA não é ficção científica.

O mundo enfrenta claramente um problema existencial cada vez mais urgente que exige ações concretas das potências nucleares para garantir que “toda decisão sobre o uso de armas nucleares seja tomada por pessoas, não por máquinas ou algoritmos” – como defendeu o Secretário-Geral da ONU, António Guterres.

Nguyen Khanh


Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

Na mesma categoria

A Catedral de Notre Dame, na cidade de Ho Chi Minh, está brilhantemente iluminada para dar as boas-vindas ao Natal de 2025.
As jovens de Hanói se vestem lindamente para a época natalina.
Após a tempestade e a inundação, a vila de crisântemos de Tet, em Gia Lai, se recuperou e espera que não haja mais cortes de energia para salvar as plantas.
A capital do damasco amarelo, na região central, sofreu grandes perdas após dois desastres naturais.

Do mesmo autor

Herança

Figura

Negócios

Cafeteria em Dalat registra aumento de 300% na clientela após dono interpretar papel em filme de artes marciais

Acontecimentos atuais

Sistema político

Local

Produto

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC