É um modelo de grande linguagem (LLM) desenvolvido por cientistas chineses que pode comandar drones militares para atacar sistemas de radar inimigos.
Cientistas da indústria de defesa da China desenvolveram um tipo de IA que pode melhorar o desempenho de drones de guerra eletrônica, de acordo com o SCMP.
Este grande modelo de linguagem (LLM), semelhante ao ChatGPT, poderia comandar drones equipados com armas de guerra eletrônica para atacar radares ou sistemas de comunicação de aeronaves inimigas.
Os resultados dos testes mostram que seu desempenho na tomada de decisões em combate aéreo não apenas supera as técnicas tradicionais de inteligência artificial (IA), como o aprendizado por reforço, mas também supera especialistas experientes.
Este é o primeiro estudo amplamente publicado a aplicar diretamente grandes modelos de linguagem a armas.
Anteriormente, essa tecnologia de IA ficava amplamente confinada a salas de guerra, fornecendo análise de inteligência ou suporte à decisão para comandantes humanos.
O projeto de pesquisa foi realizado em conjunto pelo Instituto de Design de Aeronaves de Chengdu da Corporação da Indústria de Aviação da China e pela Universidade Politécnica do Noroeste em Xi'an, Província de Shaanxi.
O instituto é o projetista do caça furtivo pesado J-20 da China.
O trabalho, que ainda está em fase experimental, é o melhor em entender a linguagem humana entre as tecnologias de IA existentes, de acordo com um artigo publicado pela equipe do projeto em 24 de outubro no periódico revisado por pares Detection & Control.
A equipe do projeto forneceu ao LLM uma variedade de recursos, incluindo "uma série de livros sobre radar, guerra eletrônica e coleções de documentos relacionados".
Outros documentos, incluindo registros de combate aéreo, registros de configuração de depósitos de armas e manuais de operações de guerra eletrônica, também foram incorporados ao modelo.
Segundo pesquisadores, a maioria dos materiais de treinamento está em chinês.
O projetista do caça furtivo chinês J-20 faz parte de uma equipe de pesquisa envolvida no projeto de IA. Foto: Weibo |
Na guerra eletrônica, o atacante libera ondas eletromagnéticas específicas para suprimir os sinais de radar emitidos pelo alvo.
Por outro lado, o defensor tentará escapar desses ataques mudando constantemente o sinal, forçando o oponente a ajustar sua estratégia em tempo real com base nos dados de vigilância.
Anteriormente, pensava-se que os LLMs não eram adequados para tais tarefas devido à sua incapacidade de interpretar dados coletados por sensores.
A inteligência artificial também frequentemente exige tempos de raciocínio mais longos, não conseguindo atingir velocidades de reação na casa dos milissegundos, essenciais na guerra eletrônica.
Para evitar esses desafios, os cientistas terceirizaram o processamento de dados brutos para um modelo de aprendizado por reforço menos complexo. Esse algoritmo de IA tradicional se destaca na compreensão e análise de grandes quantidades de dados numéricos.
Os "parâmetros do vetor de valores de observação" extraídos desse processo preliminar são então convertidos para linguagem humana por meio de um tradutor automático. O modelo de linguagem grande então assume, processa e analisa essas informações.
O compilador converte as respostas do modelo grande em comandos de saída, que controlam o bloqueador de guerra eletrônica.
Segundo os pesquisadores, os resultados experimentais confirmaram a viabilidade da tecnologia. Com a ajuda de algoritmos de aprendizado por reforço, a IA generativa pode ajustar rapidamente as estratégias de ataque até 10 vezes por segundo.
Quando comparado à IA tradicional e à expertise humana, o LLM é superior na criação de inúmeros alvos falsos nos radares inimigos. Essa estratégia é considerada mais valiosa no campo da guerra eletrônica do que simplesmente bloquear com ruído ou desviar ondas de radar de alvos reais.
[anúncio_2]
Fonte
Comentário (0)