O Departamento de Segurança da Informação emitiu recentemente um alerta sobre a contínua recorrência de fraudes de vídeo e imagem de alta tecnologia.
Dessa forma, a situação de cibercriminosos que se aproveitam de imagens e vídeos públicos de pessoas para editar, cortar e ameaçar chantagear com vídeos falsos tem sido amplamente alertada pelas autoridades à população.
Usando a tecnologia Deepfake, que permite a reprodução de som e imagem de uma pessoa com alta precisão, criminosos podem se passar por líderes em reuniões online ou criar vídeos e chamadas para cometer fraudes financeiras.
Além disso, esses golpes geralmente exploram fatores psicológicos, como urgência, medo ou poder, fazendo com que as vítimas ajam precipitadamente sem verificar cuidadosamente a autenticidade.
Deepfakes não se limitam a golpes de investimentos financeiros. Outro exemplo são os golpes românticos, em que deepfakes são usados para criar personagens fictícios que interagem com as vítimas por videochamadas. Após ganhar a confiança da vítima, o golpista solicita transferências de dinheiro para resolver emergências, despesas de viagem ou empréstimos.
Diante da situação acima, o Departamento de Segurança da Informação recomenda que as pessoas tomem cuidado com conselhos de investimento de celebridades em redes sociais; tomem cuidado com mensagens, e-mails ou chamadas não identificados; e observem cuidadosamente expressões faciais não naturais em vídeos.
As pessoas também precisam limitar a publicação de conteúdo relacionado a informações pessoais nas redes sociais para evitar que informações como imagens, vídeos ou vozes sejam roubadas por bandidos; ao mesmo tempo, defina as contas no modo privado para proteger as informações pessoais.
Em entrevista ao jornal Dai Doan Ket, o especialista em segurança cibernética Ngo Minh Hieu, cofundador do Projeto de Prevenção de Fraudes Cibernéticas do Vietnã (Chongluadao.vn), afirmou que o uso da tecnologia Deepfake em IA para falsificar videochamadas com o objetivo de fraude ainda é complexo. Os indivíduos exploram essa tecnologia para aumentar a credibilidade de suas "presas".
Especificamente, os indivíduos farão chamadas de vídeo proativamente para as vítimas a partir de imagens e vídeos previamente "roubados" e os processarão tecnicamente, distorcerão o som ou criarão problemas de imagem falsa para ganhar a confiança das vítimas.
Geralmente, essas chamadas são muito curtas, duram apenas alguns segundos, então o golpista usa a desculpa de rede instável, estar na rua, etc. para pedir que a vítima atenda às solicitações do golpista.
Especialistas alertam que o uso de IA para fraudes cibernéticas provavelmente aumentará significativamente em um futuro próximo. Portanto, as pessoas devem se conscientizar proativamente, especialmente ao receber mensagens, videochamadas e links estranhos.
De acordo com a análise deste especialista, o atual algoritmo de inteligência artificial (IA) Deepfake durante chamadas em tempo real não será capaz de lidar com a situação se o interlocutor virar à esquerda, virar à direita ou se levantar...
Uma fragilidade específica à qual as pessoas precisam prestar atenção ao receber essas ligações são os dentes. Consequentemente, os algoritmos de IA atuais não conseguem reproduzir os dentes da pessoa que está sendo imitada.
Ao usar Deepfake, a imagem da pessoa abrindo a boca pode não ter dentes; algumas pessoas têm 3 ou até 4 mandíbulas. Portanto, a característica dos dentes é o elemento mais reconhecível de uma chamada falsa usando Deepfake.
"Diminuir a velocidade" e não atender à solicitação imediatamente é um pré-requisito para evitar cair na armadilha do golpe. Ao receber qualquer mensagem ou ligação pelas redes sociais, as pessoas precisam ligar diretamente para seus parentes para verificar exatamente quem está entrando em contato com elas, com um tempo mínimo de mais de 30 segundos, ou encontrá-las pessoalmente.
Em caso de suspeita de se passar por parentes nas redes sociais para fraudar ou se apropriar de bens, é necessário comunicar imediatamente à delegacia de polícia mais próxima para apoio e providências oportunas.
Fonte: https://daidoanket.vn/chuyen-gia-chi-meo-nhan-biet-cuoc-goi-deepfake-lua-dao-10300910.html
Comentário (0)