Ataque por todos os lados
O Google lançou um novo produto de inteligência artificial (IA) chamado "Gemini Nano Banana", que não é uma IA de linguagem ampla (LLM) com capacidade de escrita e raciocínio, mas sim uma IA especializada em edição de fotos... Muitos usuários estão entusiasmados com essa ferramenta, mas ela também apresenta diversos efeitos nocivos.

“É como uma ‘regressão’ da tecnologia e da ética da IA”, disse Nguyen Hong Phuc, Diretor de Ciência da Conductify AI. “O Gemini Nano Banana tem a capacidade de editar fotos com eficácia. Mas a liberação da censura do Google para o Gemini Nano Banana, que afrouxa as barreiras e os mecanismos de limitação, permite que essa IA crie imagens extremamente semelhantes a celebridades, imagens sensuais, imagens sensíveis…”, disse Phuc.
Segundo o Sr. Nguyen Hong Phuc, essa capacidade torna o Gemini Nano Banana uma ferramenta para criar imagens falsas tão realistas que nem mesmo especialistas em IA conseguem distinguir, o que acarreta novos riscos de fraude e segurança cibernética, como a criação de fotos com políticos e figuras públicas famosas para disseminar informações falsas, e até mesmo indivíduos que têm suas fotos editadas por IA e difamadas em redes sociais...
Além disso, com dezenas de outras ferramentas de IA para edição de fotos "fazendo sucesso" online, a fraude com deepfakes não dá sinais de arrefecimento. Estatísticas de organizações de segurança mostram que a tecnologia deepfake cria campanhas de fraude direcionadas a indivíduos de alto valor, especialmente líderes empresariais. Em 2024, houve entre 140.000 e 150.000 casos em todo o mundo, dos quais 75% tiveram como alvo CEOs e altos executivos... Os deepfakes podem aumentar as perdas econômicas globais em 32%, cerca de 40 bilhões de dólares por ano até 2027.
Recentemente, a empresa AI Anthropic detectou e impediu uma campanha de ciberataques realizada por hackers estrangeiros, na qual foi registrado, pela primeira vez, o uso de IA para coordenar atividades de ataque automatizadas. Especificamente, os hackers utilizaram sistemas de IA para planejar, dirigir e executar atividades de intrusão — um desenvolvimento preocupante, com o risco de ampliar a escala e a velocidade das campanhas de ciberataques.
O Sr. Ngo Minh Hieu, Diretor da Organização Antifraude da Associação Nacional de Segurança Cibernética, afirmou que a ferramenta integrada com IA possui uma velocidade de detecção de fraudes cerca de 20 vezes maior do que a obtida com pessoas reais. Os indivíduos fornecem o cenário de fraude para análise pela IA, e o sistema inicia imediatamente uma conversa automática com as vítimas. A partir dos dados iniciais, a IA consegue identificar os desejos da vítima e interagir com ela em tempo real. O truque mais sofisticado é o ataque "Homem no Meio", que consiste em, enquanto o usuário realiza a autenticação por vídeo, como virar o rosto ou ler comandos, o hacker se posiciona no meio para interferir na transmissão de dados. Nesse momento, os cibercriminosos inserem vídeos deepfake preparados, substituindo o fluxo de dados real do usuário para burlar a autenticação. Com esse método, os sistemas de segurança de bancos e instituições financeiras também correm o risco de serem alvo de golpes.
Melhor gestão de dados
Com a crescente popularidade da IA, os riscos à segurança e à privacidade também aumentam significativamente. Os dados armazenados e processados em servidores remotos se tornarão um alvo atraente para hackers e organizações cibercriminosas. De acordo com dados da Associação Nacional de Segurança Cibernética (NCSA), somente no segundo trimestre de 2025, o número de ataques cibernéticos utilizando IA aumentou 62%, causando prejuízos globais de até 18 bilhões de dólares.
Especialistas afirmam que a proteção de dados é vital. No entanto, a coleta e venda de dados ainda ocorrem abertamente em muitas plataformas de "mercados obscuros", por valores a partir de US$ 20 por mês. Criminosos cibernéticos podem usar ferramentas que funcionam de forma semelhante a modelos de linguagem, mas são personalizadas para fins criminosos. Essas ferramentas são capazes de criar códigos maliciosos e até mesmo burlar softwares antivírus.
No Vietnã, o Decreto nº 13/2023/ND-CP (em vigor desde 17 de abril de 2023) regulamenta a proteção de dados pessoais. Além disso, a Lei de Proteção de Dados Pessoais deverá entrar em vigor em 1º de janeiro de 2026, estabelecendo um mecanismo legal mais robusto para responder ao risco de vazamento e uso indevido de dados pessoais. No entanto, de acordo com a Associação Nacional de Segurança Cibernética, a eficácia da aplicação da lei ainda precisa ser reforçada em três pilares: conscientização da população, aumento da responsabilidade empresarial e aprimoramento da capacidade de gestão dos órgãos competentes. Além das medidas técnicas, cada indivíduo precisa desenvolver a capacidade de identificar sinais incomuns e suspeitos e se proteger proativamente de interações digitais perigosas.
A empresa de segurança Kaspersky alertou para o uso indevido de IA oculta (um termo usado para descrever a implantação de grandes modelos de linguagem (LLMs) que operam fora dos controles de segurança padrão, muitas vezes permitindo ações como fraude, manipulação, ataques cibernéticos ou abuso de dados). Organizações e indivíduos precisam se preparar para ataques cibernéticos cada vez mais sofisticados e difíceis de detectar devido ao crescimento da IA oculta na região da Ásia-Pacífico.
Sergey Lozhkin, chefe da Equipe Global de Pesquisa e Análise (GReAT) da Kaspersky, responsável pelo Oriente Médio, Turquia, África e região Ásia-Pacífico, afirmou que uma das manifestações do abuso de IA atualmente é o surgimento de modelos Black Hat GPT. Esses modelos de IA são desenvolvidos ou ajustados especificamente para fins antiéticos e ilegais, como a criação de malware, a elaboração de e-mails de phishing fluentes e altamente convincentes para ataques em larga escala, a criação de vozes e vídeos deepfake e até mesmo o suporte a operações de ataque simuladas.
Especialistas da Kaspersky recomendam que indivíduos e empresas utilizem soluções de segurança de última geração para detectar malware gerado por IA e priorizem a proteção de dados. Para empresas, é essencial aplicar ferramentas de monitoramento em tempo real para acompanhar explorações impulsionadas por IA; reforçar o controle de acesso e o treinamento da equipe para limitar a atuação de IA sem autorização, bem como o risco de vazamento de dados; e estabelecer um centro de operações de cibersegurança para monitorar ameaças e responder rapidamente a incidentes.
Fonte: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






Comentário (0)