Bandidos podem usar IA para combinar fotos e vídeos sensíveis para difamar e chantagear outras pessoas - Foto: desenho de IA
No passado, ao falar sobre a técnica de cortar e colar o rosto de uma pessoa no corpo de outra, as pessoas geralmente usavam o Photoshop ou software especializado em edição de fotos, o que é trabalhoso e facilmente reconhecível a olho nu.
Agora, com ferramentas de IA, as pessoas podem fazer isso muito facilmente em "algumas notas", mas não é fácil detectar a olho nu.
Vídeo de sexo com troca de rostos para chantagem
Devido a conexões de trabalho, o Sr. H. (diretor de uma empresa na Cidade de Ho Chi Minh) frequentemente interage nas redes sociais.
Certa vez, ele fez amizade com uma jovem que lhe perguntou sobre seu trabalho. Depois de um tempo perguntando um sobre o outro, conversando e compartilhando sobre trabalho e vida pessoal, os dois pareceram bastante próximos.
Também houve muitas mensagens de texto entre os dois com palavras muito afetuosas, além de fotos trocadas e chamadas de vídeo para se verem.
Um dia, o Sr. H. recebeu repentinamente uma ligação de um homem que alegava ser o marido da jovem. Após uma ação "preventiva" contra o Sr. H., o "marido" exigiu que ele transferisse o dinheiro da indenização, caso contrário, enviaria fotos das conversas e vídeos de sexo para seus parentes e parceiros de negócios.
Então, o Sr. H. viu um vídeo de sexo dele e da outra garota mostrado pelo seu "marido", junto com uma chamada de vídeo entre os dois, e mensagens de texto íntimas capturadas...
"Eu nunca conheci essa garota, então tenho certeza de que o vídeo de sexo é uma imagem editada no Photoshop", afirmou o Sr. H. No entanto, a imagem do rosto da garota no vídeo de sexo e a da garota na videochamada são as mesmas, juntamente com a foto da mensagem de texto carinhosa, forçando o Sr. H. a transferir dinheiro para seu "marido" diversas vezes para preservar sua reputação.
Através da investigação da Tuoi Tre , o Sr. H. foi enganado de forma organizada, seguindo um cenário perfeito. Neste golpe, o Sr. H. foi enganado duas vezes por deepfake. A primeira vez foi uma videochamada e a segunda foi um vídeo de sexo.
Notavelmente, no vídeo de sexo, o rosto do Sr. H. foi enxertado com tanta habilidade que os espectadores acharam difícil acreditar que se tratava de um vídeo de enxerto facial. Um especialista em IA confirmou à Tuoi Tre que os bandidos usaram uma nova ferramenta de IA que conseguia enxertar rostos em vídeos perfeitamente... como se fossem reais.
Ferramentas de IA para troca de rostos são abundantes
Atualmente, existem muitas ferramentas de aplicação de IA que têm recursos como criar qualquer pessoa com o rosto desejado e mesclar o rosto desejado ao corpo de outra pessoa.
Entre elas, há ferramentas com recursos que servem a propósitos ruins, como transformar fotos normais em fotos de nudez ao "despir" a pessoa na foto, ou substituir o rosto de uma pessoa em vídeos por um rosto desejado...
A maioria dessas ferramentas de IA está disponível para teste, mas pagar por elas lhe dará recursos completos com tempo de transformação muito rápido.
Por exemplo, com o recurso face a corpo, os usuários só precisam enviar duas fotos correspondentes e aguardar alguns segundos pelos resultados.
Ou com o recurso de criar fotos nuas a partir de fotos normais, a ferramenta de IA pode fazer isso muito rapidamente, em apenas algumas dezenas de segundos, deixando os espectadores assustados.
Até mesmo o recurso de substituir rostos em vídeos de sexo, a ferramenta de IA faz isso muito rapidamente, levando menos de um minuto para vídeos de poucos segundos de duração.
Em entrevista à Tuoi Tre , o Sr. Nguyen Kim Tho, chefe da equipe de pesquisa e desenvolvimento da empresa de segurança cibernética VNetwork, analisou o termo deepfake, que se refere a vídeos e imagens falsos criados usando IA para fazer os espectadores pensarem que são reais.
A tecnologia Deepfake usa modelos de aprendizado profundo, como redes neurais, para analisar dados faciais e de voz de uma pessoa e criar conteúdo falso que se pareça exatamente com essa pessoa.
"Graças a algoritmos poderosos, bandidos podem colocar o rosto da vítima em vídeos sensíveis (por exemplo, vídeos de "cama", pornografia) ou editar imagens para criar fotos falsas de nudez.
Softwares e aplicativos deepfake são agora muito populares na Internet, mesmo com aplicativos móveis, código-fonte aberto ou serviços online gratuitos, facilitando o acesso de qualquer pessoa a ferramentas para criar vídeos e fotos falsos, por isso as pessoas precisam estar vigilantes", disse o Sr. Tho.
Fique longe do "bate-papo sexual"
Muitos golpes começam com a criação de amigos online e, em seguida, enganam a vítima para um "chat de sexo" ou para o envio de fotos sensíveis. Portanto, os usuários nunca devem enviar fotos ou vídeos privados para pessoas que só conhecem online, independentemente das promessas ou ameaças que façam.
Lembre-se sempre de que qualquer conteúdo compartilhado (mesmo por mensagens privadas) pode ser gravado (captura de tela, vídeo) e depois editado e usado contra você.
Se você fizer uma chamada de vídeo, tenha cuidado com estranhos pedindo conteúdo sensível: pode ser uma tela falsa ou eles podem estar gravando.
Especialistas em segurança cibernética aconselham os usuários a nunca confiar em ninguém apenas por meio de contato online e a verificar a identidade e as intenções da outra pessoa antes de compartilhar qualquer informação sensível.
Além disso, se você receber uma mensagem de texto ou uma ligação ameaçando divulgar fotos "quentes" para chantagem, os usuários não precisam ter medo ou correr para transferir dinheiro.
Pagar não garante que os bandidos excluam o vídeo; eles podem continuar exigindo mais ou publicar o conteúdo on-line de qualquer maneira, dizem os especialistas.
Em vez de atender às solicitações dos criminosos, os usuários devem coletar evidências (mensagens, números de telefone, contas de contato, conteúdo ameaçador...) e reportar imediatamente à agência policial mais próxima ou relatar o incidente por meio do aplicativo VNeID do Ministério da Segurança Pública para obter suporte oportuno.
Como identificar?
De acordo com o Sr. Nguyen Kim Tho, distinguir entre imagens e vídeos reais e deepfakes está se tornando cada vez mais difícil, mas ainda existem alguns sinais de identificação e ferramentas de apoio.
Os usuários podem observar manualmente, porque o conteúdo deepfake às vezes apresenta anormalidades na imagem e no som.
Por exemplo, uma imagem composta pode apresentar ruído ou diferenças de cor entre o rosto composto e o corpo. Um vídeo falso pode apresentar incompatibilidades de áudio e vídeo (movimentos labiais que não correspondem à fala) ou expressões faciais que parecem rígidas e artificiais.
Anteriormente, alguns vídeos deepfake faziam com que os personagens não piscassem, ou a iluminação e as sombras no rosto não combinassem com o contexto — o que eram sinais de que o vídeo foi editado.
Embora a tecnologia esteja melhorando (por exemplo, novos deepfakes adicionaram movimentos realistas de piscar de olhos), espectadores observadores ainda podem detectar alguns detalhes ilógicos em vídeos e fotos.
Os pesquisadores agora estão desenvolvendo muitos algoritmos para detectar automaticamente rastros de deepfake.
O conteúdo gerado por IA geralmente deixa uma “impressão digital” distinta em cada pixel que as máquinas podem reconhecer.
Por exemplo, a Intel introduziu o primeiro detector de deepfake em tempo real, capaz de analisar vídeos e determinar se os personagens neles são pessoas reais ou gerados por IA.
Além disso, alguns sites permitem que os usuários carreguem vídeos e fotos para verificar a autenticidade das imagens (por exemplo, Deepware, ferramentas de IA Sensity...). Esses sistemas são constantemente atualizados para acompanhar as novas técnicas de deepfake.
Em particular, os usuários podem verificar a origem da postagem e o contexto ao se depararem com um vídeo ou imagem sensível, porque muitos vídeos deepfake são espalhados por meio de contas falsas ou bots em redes sociais.
Se o conteúdo sensível sobre uma pessoa vier de uma fonte não oficial ou de uma conta anônima, desconfie da sua autenticidade. Você pode tentar entrar em contato diretamente com a pessoa mencionada no conteúdo para verificar se ela realmente fez isso.
Além disso, projetos como o estão promovendo a incorporação de informações de autenticação (assinaturas digitais) em fotos e vídeos desde o momento da criação, ajudando a distinguir o conteúdo original do conteúdo editado. "No futuro, os usuários poderão usar esses sinais de autenticação para identificar conteúdo confiável", disse o Sr. Tho.
5 dicas para se proteger
1. Limite o compartilhamento de fotos e vídeos confidenciais e privados (especialmente fotos de nudez, fotos de família e de crianças).
2. Defina suas contas de mídia social como privadas (compartilhe apenas com pessoas confiáveis).
3. Não forneça muitas informações pessoais (nome completo, número de telefone, endereço...) em redes sociais públicas.
4. Defina senhas fortes e ative a verificação em duas etapas para suas contas para evitar ser hackeado.
5. Pesquise regularmente seu nome e imagem no Google (ou use ferramentas de busca reversa de imagens como Google Image, TinEye) para ver se alguma de suas fotos foi publicada sem permissão e solicite sua remoção imediatamente.
Fonte: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Comentário (0)