O quadro complexo do uso de robôs assassinos de IA
Permitir que a IA controle sistemas de armas pode significar que alvos sejam identificados, atacados e destruídos sem intervenção humana. Isso levanta sérias questões legais e éticas.
Ressaltando a gravidade da situação, o Ministro das Relações Exteriores da Áustria, Alexander Schallenberg, disse: “Este é o Momento Oppenheimer da nossa geração”.
Robôs e armas com inteligência artificial estão começando a ser amplamente utilizados nos exércitos de muitos países. Foto: Forbes
Na verdade, até que ponto o “génio escapou da lâmpada” tornou-se uma questão premente, uma vez que os drones e a inteligência artificial (IA) se tornaram amplamente utilizados por forças militares em todo o mundo .
“O uso de drones em conflitos modernos pela Rússia e Ucrânia, o uso de drones pelos EUA em operações de ataque direcionadas no Afeganistão e Paquistão e, como revelado recentemente no mês passado, como parte do programa Lavender de Israel, mostra como as capacidades de processamento de informações da IA estão sendo ativamente usadas pelos militares do mundo para aumentar seu poder ofensivo”, disse o analista de defesa da GlobalData, Wilson Jones.
Investigações do Escritório de Jornalismo Investigativo de Guerra, sediado em Londres, descobriram que o sistema de IA Lavender do exército israelense teve uma taxa de precisão de 90% na identificação de indivíduos com ligações ao Hamas, o que significa que 10% não tinham. Isso resultou em mortes de civis devido à capacidade de identificação e tomada de decisão da IA.
Uma ameaça à segurança global
Usar a IA dessa maneira enfatiza a necessidade de gerenciar a tecnologia em sistemas de armas.
“O uso de IA em sistemas de armas, especialmente quando usado para direcionamento, levanta questões fundamentais sobre nós — humanos — e nossa relação com a guerra e, mais especificamente, nossas suposições sobre como podemos usar a violência em conflitos armados”, explicou o Dr. Alexander Blanchard, pesquisador sênior do programa Governança de Inteligência Artificial do Instituto Internacional de Pesquisa para a Paz de Estocolmo (SIPRI), um grupo de pesquisa independente focado em segurança global, ao Army Technology.
Os sistemas de IA, quando utilizados em ambientes caóticos, podem se comportar de forma imprevisível e podem não conseguir identificar alvos com precisão. Foto: MES
“A IA muda a maneira como os militares selecionam alvos e aplicam força a eles? Essas mudanças, por sua vez, levantam uma série de questões legais, éticas e operacionais. As maiores preocupações são humanitárias”, acrescentou o Dr. Blanchard.
“Muitos estão preocupados que, dependendo de como os sistemas autônomos são projetados e utilizados, eles podem colocar civis e outras pessoas protegidas pelo direito internacional em maior risco de danos”, explicou o especialista do SIPRI. “Isso ocorre porque os sistemas de IA, especialmente quando utilizados em ambientes caóticos, podem operar de forma imprevisível e podem falhar na identificação precisa de alvos e ataques a civis, ou na identificação de combatentes que não estejam em combate.”
Elaborando sobre o assunto, o analista de defesa da GlobalData, Wilson Jones, observou que a questão de como a culpa é determinada pode ser questionável.
“Sob a atual lei de guerra, existe um conceito de responsabilidade de comando”, disse o Sr. Jones. “Isso significa que um oficial, general ou outro líder é legalmente responsável pelas ações das tropas sob seu comando. Se as tropas cometem crimes de guerra, o oficial é responsável mesmo que não tenha dado as ordens; o ônus da prova recai sobre ele, que deve provar que fez todo o possível para evitar crimes de guerra.”
“Com sistemas de IA, isso complica as coisas. Um técnico de TI é responsável? Um projetista de sistemas? Não está claro. Se não estiver claro, cria-se um risco moral se os atores acharem que suas ações não são protegidas pelas leis existentes”, enfatizou o Sr. Jones.
Um soldado americano patrulha com um cão-robô. Foto: Forbes
Convenções de controle de armas: Vários acordos internacionais importantes limitam e regulamentam certos usos de armas. Há proibições de armas químicas, tratados de não proliferação nuclear e a Convenção sobre Certas Armas Convencionais, que proíbe ou limita o uso de armas específicas consideradas como causadoras de sofrimento desnecessário ou injustificável a beligerantes ou que afetam civis indiscriminadamente.
“O controle de armas nucleares exigiu décadas de cooperação internacional e tratados subsequentes para ser aplicado”, explica o analista de defesa Wilson Jones. “Mesmo assim, continuamos os testes atmosféricos até a década de 1990. Um dos principais motivos do sucesso da não proliferação nuclear foi a cooperação entre os Estados Unidos e a União Soviética na ordem mundial bipolar. Isso não existe mais, e a tecnologia que cria a IA é mais acessível a muitos países do que a energia nuclear.”
Um tratado vinculativo teria que reunir todos os atores relevantes para concordar em não usar uma ferramenta que aumente seu poder militar. É improvável que isso funcione, pois a IA pode melhorar a eficácia militar com custos financeiros e materiais mínimos.
Perspectiva geopolítica atual
Embora os países das Nações Unidas tenham reconhecido a necessidade do uso militar responsável da IA, ainda há muito trabalho a ser feito.
“Sem uma estrutura regulatória clara, essas reivindicações permanecem, em grande parte, mera aspiração”, disse Laura Petrone, analista principal da GlobalData, à Army Technology. “Não é surpresa que alguns países queiram manter sua própria soberania ao decidir sobre questões de defesa interna e segurança nacional, especialmente no atual clima geopolítico.”
A Sra. Petrone acrescentou que, embora a Lei de IA da UE estabeleça alguns requisitos para sistemas de IA, ela não aborda sistemas de IA para fins militares.
“Acredito que, apesar dessa exclusão, a Lei de IA representa um esforço importante para estabelecer uma estrutura há muito esperada para aplicações de IA, o que pode levar a algum grau de uniformidade de padrões relevantes no futuro”, comentou. “Essa uniformidade também será importante para a IA no domínio militar.”
Nguyen Khanh
[anúncio_2]
Fonte: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Comentário (0)