A IA obscura opera fora dos padrões de segurança, muitas vezes permitindo comportamentos como fraude, manipulação, ataques cibernéticos ou exploração de dados sem supervisão adequada.
“Atores maliciosos também estão explorando a IA para aprimorar suas capacidades de ataque. O uso indevido mais comum da IA hoje em dia é o surgimento de modelos Black Hat GPT. Esses são modelos de IA especificamente desenvolvidos ou modificados para servir a propósitos ilícitos, como a criação de malware, a elaboração de e-mails de phishing, a geração de vídeos de voz e deepfake…”, compartilhou Sergey Lozhkin, chefe da Equipe Global de Pesquisa e Análise (GReAT) para o Oriente Médio, Turquia, África e Ásia- Pacífico da Kaspersky.
Os GPTs de chapéu preto podem existir como modelos de IA completamente privados ou semiprivados. Alguns exemplos notáveis incluem WormGPT, DarkBard, FraudGPT e Xanthorox, todos projetados para servir a atividades de cibercrime, fraude e automação maliciosa.
Lozhkin revelou que os especialistas da Kaspersky estão observando uma tendência ainda mais preocupante: grupos de ciberataques apoiados por estados ou governos estão começando a usar modelos de linguagem de grande escala (LLMs, na sigla em inglês) em suas campanhas de ataque.
“A OpenAI anunciou recentemente que frustrou mais de 20 campanhas de influência secretas e ciberataques que exploraram suas ferramentas de IA. Teremos que enfrentar atacantes cada vez mais sofisticados que usam a IA como arma, tornando-se uma ameaça tanto em ecossistemas públicos quanto privados. Essa é uma tendência preocupante para a qual todas as organizações precisam estar preparadas”, compartilhou Lozhkin.
Segundo um relatório da OpenAI, agentes maliciosos começaram a explorar as capacidades de modelos de aprendizado de máquina em larga escala (LLMs) para enganar vítimas e contornar as camadas de segurança convencionais. Eles conseguem criar mensagens falsas convincentes, enviar mensagens em massa para as vítimas e produzir conteúdo em vários idiomas.
Para reforçar as defesas contra ameaças de IA oculta, os especialistas da Kaspersky recomendam: utilizar soluções de segurança de última geração, como o Kaspersky Next, para detectar malware gerado por IA e controlar os riscos da cadeia de suprimentos; aplicar ferramentas de inteligência de ameaças em tempo real para monitorar a exploração de vulnerabilidades impulsionada por IA; fortalecer o controle de acesso e o treinamento da equipe para limitar os riscos de IA oculta e vazamento de dados; e estabelecer um Centro de Operações de Segurança (SOC) para monitorar ameaças e responder rapidamente a incidentes.
Fonte: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Comentário (0)