A IA obscura opera fora das normas de segurança, muitas vezes permitindo comportamentos como fraude, manipulação, ataques cibernéticos ou mineração de dados sem supervisão rigorosa.
“Atores mal-intencionados também estão usando IA para aprimorar suas capacidades de ataque. A forma mais comum de abuso de IA atualmente é o surgimento de modelos Black Hat GPT. Trata-se de modelos de IA especialmente desenvolvidos ou adaptados para fins ilegais, como criação de malware, elaboração de e-mails de phishing, geração de vozes e vídeos deepfake...”, afirmou Sergey Lozhkin, Chefe da Equipe Global de Pesquisa e Análise (GReAT) para o Oriente Médio, Turquia, África e Ásia- Pacífico da Kaspersky.
GPTs Black Hat podem existir como modelos de IA totalmente privados ou semiprivados. Alguns exemplos notáveis incluem WormGPT, DarkBard, FraudGPT e Xanthorox... todos projetados para combater crimes cibernéticos, fraudes e automação maliciosa.
Lozhkin revelou que os especialistas da Kaspersky estão registrando uma tendência ainda mais preocupante, com grupos de ciberataque apoiados por estados-nação ou governos começando a aproveitar modelos de grande linguagem (LLMs) em suas campanhas de ataque.
“A OpenAI anunciou recentemente que interrompeu mais de 20 campanhas de influência secreta e ataques cibernéticos que exploravam suas ferramentas de IA. Continuaremos a ver invasores cada vez mais sofisticados usando a IA como arma, representando uma ameaça aos ecossistemas públicos e privados. Esta é uma tendência preocupante para a qual todas as organizações precisam se preparar”, disse Lozhkin.
De acordo com o relatório da OpenAI, agentes maliciosos começaram a explorar os recursos de grandes modelos de aprendizado de máquina (LLMs) para enganar as vítimas e contornar as camadas de segurança convencionais. Eles podem criar mensagens falsas convincentes, enviar mensagens em massa para as vítimas e produzir conteúdo em vários idiomas.
Para fortalecer as defesas contra ameaças de IA oculta, os especialistas da Kaspersky recomendam: Usar soluções de segurança de última geração, como o Kaspersky Next, para detectar malware gerado por IA e controlar riscos na cadeia de suprimentos. Aplicar ferramentas de inteligência de ameaças em tempo real para monitorar explorações impulsionadas por IA. Fortalecer os controles de acesso e o treinamento de funcionários para limitar a IA oculta e o risco de vazamento de dados. Estabelecer um Centro de Operações de Segurança (SOC) para monitorar ameaças e responder rapidamente a incidentes.
Fonte: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html
Comentário (0)