
Cada vez mais imagens e vídeos editados e adicionados por IA são publicados em redes sociais para atrair visualizações - Foto: DUC THIEN
Se no passado, para criar uma foto falsa, os usuários comuns precisavam contratar especialistas em Photoshop, hoje, com a inteligência artificial, em menos de 5 minutos e com algumas habilidades básicas, um conjunto de fotos falsas pode aparecer em qualquer lugar.
Quando a IA cria imagens, vídeos, músicas... tão reais que é difícil de acreditar.
A Sra. Hoan My (HCMC), funcionária da área de comunicação e usuária assídua do Facebook, afirmou que há cada vez mais conteúdo publicado por usuários com intervenção de ferramentas de IA.
"Há muitas fotos postadas por amigos ou membros de grupos que são tão reais que eu não conseguiria dizer se foi usada IA se eles não mencionassem. Cada vez mais vídeos, desde animações e criações imaginativas até curtas-metragens ou vídeos relacionados a eventos da vida real, são criados por ferramentas de IA, mas eu não saberia dizer", compartilhou a Sra. My.
Não apenas imagens e vídeos, mas também na rede social YouTube, existem muitas músicas interpretadas ou compostas por "cantores de IA". Muitos usuários estão entusiasmados com a nova experiência e competem para compartilhá-la nas redes sociais com seus amigos.
"Não consigo dizer se é um cantor de IA se não for anunciado. O conteúdo de IA está cada vez mais disseminado no ciberespaço do Vietnã. Usuários comuns como eu provavelmente em breve não saberão mais qual conteúdo é de pessoas reais, qual conteúdo é de IA ou tem intervenção de IA", disse Khanh Ha (Cidade de Ho Chi Minh).
Recentemente, muitas plataformas de redes sociais no Vietnã têm apresentado vídeos e transmissões ao vivo de pessoas com deficiência que vendem produtos, tornando a comunidade online mais solidária e incentivando o compartilhamento.
No entanto, muitos casos foram posteriormente expostos pela comunidade online, que revelou o uso de IA para transformar pessoas normais em pessoas com deficiência. O objetivo desse truque é explorar a compaixão dos espectadores para vender produtos ou cometer fraudes.
Muitos especialistas em tecnologia afirmam que, recentemente, as redes sociais têm visto um número crescente de contas publicando vídeos de vendas com imagens de pessoas com deficiência, doentes ou em situação de vulnerabilidade, com o objetivo de despertar compaixão. No entanto, a realidade mostra que grande parte desse conteúdo é criado ou editado com ferramentas de inteligência artificial, transformando pessoas comuns em pessoas com deficiência para fins lucrativos ou fraudulentos.
Em entrevista ao Tuoi Tre, Milko Radotic, vice-presidente responsável pela região Ásia- Pacífico da iProov, líder mundial em tecnologia de autenticação biométrica, alertou: "Nossa pesquisa mostra que 99,9% dos participantes não conseguem reconhecer deepfakes. Mesmo as ferramentas de detecção mais avançadas da atualidade enfrentam muitas dificuldades."
Aumentar a resistência dos usuários digitais
O Sr. Dang Huu Son, Vice-Diretor do Instituto de Pesquisa Aplicada e Desenvolvimento de Recursos Humanos da AIOV, Fundador e CEO da LovinBot AI Company, afirmou que, desde o lançamento das tecnologias de IA Nano Banana e Veo 3 pelo Google, do Seedream 4 pela ByteDance e, anteriormente, do GPT Image pela OpenAI, o mercado de IA tem estado extremamente movimentado, o que também trouxe muitas consequências.
"A tecnologia nunca foi tão acessível como é hoje. São todos modelos de IA extremamente poderosos que conseguem 'copiar rostos' em quase 90%, até mesmo 99%, em comparação com a foto original", comentou o Sr. Son.
Se antes, para criar uma foto falsa, usuários comuns precisavam contratar especialistas em Photoshop, hoje, com a inteligência artificial, em menos de 5 minutos e com algumas habilidades básicas, um conjunto de fotos falsas, um vídeo falso recortado e colado, com efeitos semelhantes aos de notícias, pode se espalhar a uma velocidade vertiginosa.
"As notícias falsas são repetidas inúmeras vezes, com alta densidade e fácil acesso, de modo que um grande número de pessoas que entram em contato com elas diariamente acaba acreditando que são verdadeiras. Portanto, são necessárias soluções para limitar os problemas mencionados", observou o Sr. Son.
Segundo Trinh Nguyen Thien Phuoc, Diretor de Tecnologia da Gianty Vietnam Company, para distinguir conteúdo gerado por IA, são necessárias três camadas: (1) habilidades de verificação do usuário (juntamente com regras de ouro); (2) ferramentas técnicas como Credenciais de Conteúdo (C2PA), marcas d'água de identificação (SynthID, AudioSeal) e detectores de deepfake; (3) processo de coordenação entre as partes envolvidas, como plataformas, operadoras de rede, bancos...
Em particular, a regra de ouro deve ser cumprida muito rapidamente, dentro de 30 a 60 segundos, incluindo: não clicar em links suspeitos e acessar o aplicativo/site oficial para verificar; parar imediatamente ao encontrar palavras-chave que forcem uma ação (OTP/transferência de dinheiro/urgente).
Ao mesmo tempo, os usuários devem verificar com duas fontes independentes antes de acreditar; conferir a data, a hora e o contexto (notícias antigas disfarçadas de novas); ligar para o número oficial que você encontrou, não use o número fornecido por terceiros; com imagens e vídeos, os usuários podem pesquisar resultados relacionados...
Muitos especialistas acreditam que a solução mais fundamental para lidar com a onda de conteúdo falso criado por IA é conscientizar o público. Em vez de focar apenas em medidas técnicas, é necessário criar programas de treinamento, competições ou simular situações da vida real para ajudar as pessoas a mudarem seus hábitos de consumo de informação.
Para os jovens, especialmente os estudantes, a combinação de concursos online e campanhas na mídia com celebridades ou influenciadores digitais pode criar uma atração natural, ajudando-os a aprender e a adquirir experiência, ao mesmo tempo que desenvolvem as habilidades para identificar notícias e vídeos falsos. Enquanto isso, os idosos, principalmente em áreas rurais, precisam de formatos mais familiares e intuitivos, como folhetos ilustrados, vídeos instrutivos ou exibições em centros culturais e atividades comunitárias.
"Uma abordagem adequada a cada grupo de pessoas ajudará a criar uma base sólida de conscientização a longo prazo, em vez de se limitar a atividades de curto prazo. Por exemplo, algumas unidades desenvolveram extensões que podem ser instaladas no navegador Chrome para auxiliar os usuários na verificação de notícias ao navegar na internet ou em redes sociais...", compartilhou o Sr. Dang Huu Son.
Utilizando IA para detectar IA falsa.
Recentemente, a Honor integrou um recurso de Detecção de Deepfakes por IA em sua nova linha de celulares. Esse recurso analisa imagens e vozes em 3 segundos para alertar sobre mensagens falsas diretamente em aplicativos como Messenger, Zalo, Viber ou Google Meet, funcionando como um "escudo digital" para proteger os usuários de golpes sofisticados.
Anteriormente, em setembro de 2025, a MoMo anunciou sua cooperação com a iProov para implementar a tecnologia Dynamic Liveness, que ajuda a verificar se os usuários são reais, possuem a identidade correta e estão presentes no momento da transação, prevenindo fraudes com deepfakes, vídeos ou imagens falsas.
Em setores de alto risco, como o financeiro, esse nível de segurança é crucial para prevenir fraudes, impedir acessos não autorizados e manter a confiança do usuário na plataforma.
Fonte: https://tuoitre.vn/tu-hinh-anh-video-den-ca-khuc-ai-can-trong-con-loc-noi-dung-ai-tren-mang-xa-hoi-20251109232702736.htm






Comentário (0)