Vietnam.vn - Nền tảng quảng bá Việt Nam

Segurança de dados na era da IA.

Deepfakes, ataques de phishing e roubo de identidade digital estão se tornando mais sofisticados e podem atacar a qualquer momento, visando qualquer pessoa que não possua habilidades de defesa digital.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Atacar por todos os ângulos.

O Google lançou um novo produto de inteligência artificial (IA) chamado "Gemini Nano Banana", que não é uma IA linguística (LLM) em larga escala capaz de escrever e raciocinar, mas sim uma IA especializada em edição de fotos... Muitos usuários estão entusiasmados com essa ferramenta, mas ela também apresenta algumas desvantagens.

S4c.jpg
A Escola Primária Tran Hung Dao, no bairro de Cau Ong Lanh, na cidade de Ho Chi Minh, utiliza um sistema de reconhecimento facial para registrar a presença dos alunos e enviar notificações aos pais por meio de um aplicativo. Foto: HOANG HUNG

“É como um ‘passo para trás’ na tecnologia de IA e nas limitações éticas”, disse Nguyen Hong Phuc, Diretor Científico da Conductify AI, expressando sua opinião pessoal. “O Gemini Nano Banana tem recursos eficazes de edição de imagens. Mas a liberação da censura pelo Google ao Gemini Nano Banana, afrouxando as barreiras e os mecanismos de limitação, permite que essa IA crie imagens incrivelmente semelhantes a celebridades, imagens sugestivas, imagens sensíveis, etc.”, afirmou Phuc.

Segundo o Sr. Nguyen Hong Phuc, essa capacidade torna o Gemini Nano Banana uma ferramenta para criar imagens falsas realistas, a ponto de nem mesmo especialistas em IA conseguirem distingui-las, o que acarreta novos riscos de fraude e segurança cibernética, como a criação de fotos falsas com políticos famosos para disseminar informações falsas, e até mesmo indivíduos sendo submetidos à manipulação de fotos geradas por IA e difamação nas redes sociais...

Além disso, com dezenas de outras ferramentas de edição de fotos com IA dominando a internet, os golpes com deepfakes não mostram sinais de arrefecimento. Estatísticas de organizações de segurança demonstram que a tecnologia deepfake cria campanhas de phishing direcionadas a indivíduos de alto valor, especialmente líderes empresariais. Em 2024, houve entre 140.000 e 150.000 casos em todo o mundo, com 75% deles visando CEOs e executivos seniores... Os deepfakes podem aumentar as perdas econômicas globais em 32%, aproximadamente US$ 40 bilhões por ano até 2027.

Recentemente, a empresa de IA Anthropic detectou e frustrou uma campanha de ciberataques realizada por hackers estrangeiros, registrando pela primeira vez o uso de IA para coordenar atividades de ataque automatizadas. Especificamente, os hackers utilizaram sistemas de IA para planejar, dirigir e executar operações de intrusão – um desenvolvimento “preocupante” que corre o risco de ampliar a escala e a velocidade das campanhas de ciberataques…

O Sr. Ngo Minh Hieu, Diretor da Organização Antifraude da Associação Nacional de Segurança Cibernética, afirmou que as ferramentas integradas com IA aumentam a velocidade das fraudes em cerca de 20 vezes em comparação com o uso de pessoas reais. Os fraudadores fornecem à IA um cenário de fraude para análise, e o sistema imediatamente inicia uma conversa automática com as vítimas. A partir dos dados iniciais, a IA consegue entender o que a vítima deseja e se comunicar com ela em tempo real. A tática mais sofisticada é o ataque "Homem no Meio", no qual, quando um usuário realiza autenticação por vídeo (como gravar o rosto ou dar comandos), o hacker intervém para interferir nos dados transmitidos. Os cibercriminosos inserem vídeos deepfake pré-fabricados, substituindo o fluxo de dados real do usuário para burlar o processo de autenticação. Com esse método, os sistemas de segurança de bancos e instituições financeiras também correm o risco de serem enganados.

Melhor gestão de dados

Com a crescente prevalência da IA, os riscos à segurança e à privacidade também aumentam significativamente. Os dados armazenados e processados ​​em servidores remotos se tornarão um alvo atraente para hackers e cibercriminosos. De acordo com dados da Associação Nacional de Segurança Cibernética (NCSA), somente no segundo trimestre de 2025, o número de ataques cibernéticos impulsionados por IA aumentou 62%, causando prejuízos globais de até US$ 18 bilhões.

Especialistas acreditam que a proteção de dados é crucial. No entanto, a coleta e venda de dados continuam ocorrendo abertamente em muitas plataformas do "mercado negro", por valores tão baixos quanto US$ 20 por mês. Criminosos cibernéticos podem usar ferramentas que imitam modelos de linguagem, mas são personalizadas para fins criminosos. Essas ferramentas são capazes de gerar malware e até mesmo burlar softwares antivírus.

No Vietnã, o Decreto nº 13/2023/ND-CP (em vigor desde 17 de abril de 2023) regulamenta a proteção de dados pessoais. Além disso, a Lei de Proteção de Dados Pessoais, com previsão de entrada em vigor em 1º de janeiro de 2026, criará um mecanismo legal mais robusto para lidar com o risco de vazamentos e uso indevido de dados pessoais. No entanto, segundo a Associação Nacional de Segurança Cibernética, a eficácia da aplicação da lei ainda precisa ser aprimorada em três pilares: conscientização pública, aumento da responsabilidade corporativa e melhoria da capacidade de processamento dos órgãos reguladores. Além das medidas técnicas, cada indivíduo precisa desenvolver a capacidade de identificar sinais incomuns e suspeitos e se proteger proativamente de interações digitais perigosas.

A Kaspersky alertou sobre a exploração da IA ​​Sombria (um termo que se refere à implantação de grandes modelos de linguagem (LLMs) que operam fora dos controles de segurança padrão, muitas vezes permitindo ações como phishing, manipulação, ataques cibernéticos ou abuso de dados). Organizações e indivíduos precisam se preparar para enfrentar ataques cibernéticos cada vez mais sofisticados e difíceis de detectar devido ao crescimento da IA ​​Sombria na região da Ásia-Pacífico.

Sergey Lozhkin, chefe da Equipe Global de Pesquisa e Análise (GReAT) para o Oriente Médio, Turquia, África e Ásia-Pacífico da Kaspersky, afirmou que uma das manifestações do atual abuso de IA é o surgimento de modelos Black Hat GPT. Esses modelos de IA são especificamente desenvolvidos ou modificados para fins antiéticos e ilegais, como a criação de malware, a elaboração de e-mails de phishing fluentes e persuasivos para ataques em larga escala, a criação de vozes e vídeos deepfake e até mesmo o suporte a ataques simulados.

Especialistas da Kaspersky recomendam que indivíduos e empresas utilizem soluções de segurança de última geração para detectar malware gerado por IA, priorizando também a proteção de dados. As empresas devem implementar ferramentas de monitoramento em tempo real para rastrear a exploração de vulnerabilidades impulsionadas por IA; fortalecer o controle de acesso e o treinamento de funcionários para limitar a IA na zona escura e o risco de vazamento de dados; e estabelecer um centro de operações de cibersegurança para monitorar ameaças e responder rapidamente a incidentes.

Fonte: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

Do mesmo autor

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
"Joias de conchas – a beleza do mar"

"Joias de conchas – a beleza do mar"

Competição de stand-up paddleboard na baía de Nha Trang

Competição de stand-up paddleboard na baía de Nha Trang

Dança

Dança