Grupos terroristas como o Estado Islâmico (EI) e a Al-Qaeda estão usando tecnologia, especialmente inteligência artificial, para espalhar mensagens extremistas, evitar a censura e, acima de tudo, recrutar membros.
Em Uma Família da Pesada, uma das séries de comédia animadas mais populares do mundo , há uma cena em que o personagem principal, Peter Griffin, atravessa uma ponte dirigindo um caminhão carregado de bombas. Mas, no trecho acima, o EI usou inteligência artificial (IA) para substituir as palavras de Griffin pela frase: "Nossas armas são excelentes, temos muitas patentes, os soldados de Alá estão mais preparados" para atrair mais seguidores do EI.
“A rápida disseminação da tecnologia de IA nos últimos anos teve um impacto profundo na forma como as organizações extremistas exercem influência online”, disse Daniel Siegel, pesquisador americano. Em fevereiro de 2024, um grupo afiliado à Al-Qaeda anunciou que começaria a realizar workshops online sobre IA e, posteriormente, lançou um guia para o uso de chatbots de IA. Em março deste ano, após um afiliado do EI realizar um ataque terrorista a um teatro em Moscou, um dos seguidores do grupo criou uma notícia falsa e a publicou online. Mais recentemente, no início de julho, autoridades do Ministério do Interior espanhol prenderam nove jovens que compartilhavam conteúdo glorificando a organização EI, incluindo um que foi descrito como focado em conteúdo multimídia extremista, usando aplicativos de edição especializados com tecnologia de IA.
“A IA está sendo usada como um complemento à propaganda oficial tanto pela Al-Qaeda quanto pelo EI”, disse Moustafa Ayad, diretor executivo para África, Oriente Médio e Ásia do Instituto para o Diálogo Estratégico, com sede em Londres. Isso não é surpresa para observadores de longa data do EI. Quando o grupo surgiu, por volta de 2014, produzia vídeos com o objetivo de intimidar e recrutar membros. Observadores documentaram diversas maneiras pelas quais a IA está sendo usada por grupos extremistas. Além da propaganda, o EI também pode usar chatbots como o ChatGPT para conversar com potenciais recrutas.
Embora modelos de IA, como o ChatGPT, tenham certas regras para impedir que os usuários cometam crimes como terrorismo e assassinato, essas regras se mostraram pouco confiáveis e podem ser facilmente burladas por terroristas. Há também preocupações de que extremistas possam usar ferramentas de IA para realizar ataques cibernéticos ou ajudá-los a planejar ataques terroristas na vida real.
A maior ameaça agora, dizem os analistas, é que esses grupos realizem ataques e inspirem atores "lobos solitários" ou recrutem novos membros com sucesso. Com a comunidade internacional indignada com a guerra de Israel em Gaza, grupos extremistas estão usando as mortes de civis como ferramenta retórica para recrutar e construir campanhas.
KHANH MINH
Fonte: https://www.sggp.org.vn/nguy-co-khi-cac-nhom-khung-bo-su-dung-cong-nghe-cao-post749867.html
Comentário (0)