Vietnam.vn - Nền tảng quảng bá Việt Nam

Segurança de dados na era da IA.

Deepfakes, ataques de phishing e roubo de identidade digital estão se tornando mais sofisticados e podem atacar a qualquer momento, visando qualquer pessoa que não possua habilidades de defesa digital.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Atacar por todos os ângulos.

O Google lançou um novo produto de inteligência artificial (IA) chamado "Gemini Nano Banana", que não é uma IA linguística (LLM) em larga escala capaz de escrever e raciocinar, mas sim uma IA especializada em edição de fotos... Muitos usuários estão entusiasmados com essa ferramenta, mas ela também apresenta algumas desvantagens.

S4c.jpg
A Escola Primária Tran Hung Dao, no bairro de Cau Ong Lanh, na cidade de Ho Chi Minh, utiliza um sistema de reconhecimento facial para registrar a presença dos alunos e enviar notificações aos pais por meio de um aplicativo. Foto: HOANG HUNG

“É como um ‘passo para trás’ na tecnologia de IA e nas limitações éticas”, disse Nguyen Hong Phuc, Diretor Científico da Conductify AI, expressando sua opinião pessoal. “O Gemini Nano Banana tem recursos eficazes de edição de imagens. Mas a liberação da censura pelo Google ao Gemini Nano Banana, afrouxando as barreiras e os mecanismos de limitação, permite que essa IA crie imagens incrivelmente semelhantes a celebridades, imagens sugestivas, imagens sensíveis, etc.”, afirmou Phuc.

Segundo o Sr. Nguyen Hong Phuc, essa capacidade torna o Gemini Nano Banana uma ferramenta para criar imagens falsas realistas, a ponto de nem mesmo especialistas em IA conseguirem distingui-las, o que acarreta novos riscos de fraude e segurança cibernética, como a criação de fotos falsas com políticos famosos para disseminar informações falsas, e até mesmo indivíduos sendo submetidos à manipulação de fotos geradas por IA e difamação nas redes sociais...

Além disso, com dezenas de outras ferramentas de edição de fotos com IA dominando a internet, os golpes com deepfakes não mostram sinais de arrefecimento. Estatísticas de organizações de segurança demonstram que a tecnologia deepfake cria campanhas de phishing direcionadas a indivíduos de alto valor, especialmente líderes empresariais. Em 2024, houve entre 140.000 e 150.000 casos em todo o mundo, com 75% deles visando CEOs e executivos seniores... Os deepfakes podem aumentar as perdas econômicas globais em 32%, aproximadamente US$ 40 bilhões por ano até 2027.

Recentemente, a empresa de IA Anthropic detectou e frustrou uma campanha de ciberataques realizada por hackers estrangeiros, registrando pela primeira vez o uso de IA para coordenar atividades de ataque automatizadas. Especificamente, os hackers utilizaram sistemas de IA para planejar, dirigir e executar operações de intrusão – um desenvolvimento “preocupante” que corre o risco de ampliar a escala e a velocidade das campanhas de ciberataques…

O Sr. Ngo Minh Hieu, Diretor da Organização Antifraude da Associação Nacional de Segurança Cibernética, afirmou que as ferramentas integradas com IA aumentam a velocidade das fraudes em cerca de 20 vezes em comparação com o uso de pessoas reais. Os fraudadores fornecem à IA um cenário de fraude para análise, e o sistema imediatamente inicia uma conversa automática com as vítimas. A partir dos dados iniciais, a IA consegue entender o que a vítima deseja e se comunicar com ela em tempo real. A tática mais sofisticada é o ataque "Homem no Meio", no qual, quando um usuário realiza autenticação por vídeo (como gravar o rosto ou dar comandos), o hacker intervém para interferir nos dados transmitidos. Os cibercriminosos inserem vídeos deepfake pré-fabricados, substituindo o fluxo de dados real do usuário para burlar o processo de autenticação. Com esse método, os sistemas de segurança de bancos e instituições financeiras também correm o risco de serem enganados.

Melhor gestão de dados

Com a crescente prevalência da IA, os riscos à segurança e à privacidade também aumentam significativamente. Os dados armazenados e processados ​​em servidores remotos se tornarão um alvo atraente para hackers e cibercriminosos. De acordo com dados da Associação Nacional de Segurança Cibernética (NCSA), somente no segundo trimestre de 2025, o número de ataques cibernéticos impulsionados por IA aumentou 62%, causando prejuízos globais de até US$ 18 bilhões.

Especialistas acreditam que a proteção de dados é crucial. No entanto, a coleta e venda de dados continuam ocorrendo abertamente em muitas plataformas do "mercado negro", por valores tão baixos quanto US$ 20 por mês. Criminosos cibernéticos podem usar ferramentas que imitam modelos de linguagem, mas são personalizadas para fins criminosos. Essas ferramentas são capazes de gerar malware e até mesmo burlar softwares antivírus.

No Vietnã, o Decreto nº 13/2023/ND-CP (em vigor desde 17 de abril de 2023) regulamenta a proteção de dados pessoais. Além disso, a Lei de Proteção de Dados Pessoais, com previsão de entrada em vigor em 1º de janeiro de 2026, criará um mecanismo legal mais robusto para lidar com o risco de vazamentos e uso indevido de dados pessoais. No entanto, segundo a Associação Nacional de Segurança Cibernética, a eficácia da aplicação da lei ainda precisa ser aprimorada em três pilares: conscientização pública, aumento da responsabilidade corporativa e melhoria da capacidade de processamento dos órgãos reguladores. Além das medidas técnicas, cada indivíduo precisa desenvolver a capacidade de identificar sinais incomuns e suspeitos e se proteger proativamente de interações digitais perigosas.

A Kaspersky alertou sobre a exploração da IA ​​Sombria (um termo que se refere à implantação de grandes modelos de linguagem (LLMs) que operam fora dos controles de segurança padrão, muitas vezes permitindo ações como phishing, manipulação, ataques cibernéticos ou abuso de dados). Organizações e indivíduos precisam se preparar para enfrentar ataques cibernéticos cada vez mais sofisticados e difíceis de detectar devido ao crescimento da IA ​​Sombria na região da Ásia-Pacífico.

Sergey Lozhkin, chefe da Equipe Global de Pesquisa e Análise (GReAT) para o Oriente Médio, Turquia, África e Ásia-Pacífico da Kaspersky, afirmou que uma das manifestações do atual abuso de IA é o surgimento de modelos Black Hat GPT. Esses modelos de IA são especificamente desenvolvidos ou modificados para fins antiéticos e ilegais, como a criação de malware, a elaboração de e-mails de phishing fluentes e persuasivos para ataques em larga escala, a criação de vozes e vídeos deepfake e até mesmo o suporte a ataques simulados.

Especialistas da Kaspersky recomendam que indivíduos e empresas utilizem soluções de segurança de última geração para detectar malware gerado por IA, priorizando também a proteção de dados. As empresas devem implementar ferramentas de monitoramento em tempo real para rastrear a exploração de vulnerabilidades impulsionadas por IA; fortalecer o controle de acesso e o treinamento de funcionários para limitar a IA na zona escura e o risco de vazamento de dados; e estabelecer um centro de operações de cibersegurança para monitorar ameaças e responder rapidamente a incidentes.

Fonte: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

Do mesmo autor

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
COMECE O SEU DIA COM ENERGIA

COMECE O SEU DIA COM ENERGIA

VIETNÃ - A TERRA DA FELICIDADE E DO AMOR

VIETNÃ - A TERRA DA FELICIDADE E DO AMOR

A cultura guia o caminho da nação.

A cultura guia o caminho da nação.