Os deepfakes são agora uma grande preocupação, visto que o número de golpes que utilizam essa tecnologia continua a aumentar.
Após pesquisarem fóruns da Darknet, onde cibercriminosos atuam frequentemente, especialistas em segurança descobriram que tantos criminosos estão usando software Deepfake para fraudes que a demanda excede em muito a oferta de software Deepfake atualmente disponível no mercado.
Com a demanda superando a oferta, os especialistas da Kaspersky preveem um aumento nos golpes com deepfakes, com métodos cada vez mais diversos e sofisticados: desde o fornecimento de vídeos de imitação de alta qualidade até o uso de imagens de celebridades em transmissões ao vivo falsas nas redes sociais, prometendo dobrar o valor enviado pelas vítimas.
Segundo o sistema de referência de informações Regula, 37% das empresas em todo o mundo já sofreram golpes com deepfakes baseados em voz, e 29% foram vítimas de golpes com deepfakes baseados em vídeo.
Essa tecnologia se tornou uma ameaça à segurança cibernética do Vietnã, onde criminosos cibernéticos frequentemente usam chamadas de vídeo falsas para se passar por outras pessoas a fim de pedir dinheiro emprestado a parentes e amigos.
Uma chamada de vídeo deepfake pode durar apenas um minuto, tornando muito difícil para as vítimas distinguir entre uma chamada real e uma falsa.
Os deepfakes estão gradualmente se tornando um "pesadelo" em golpes online sofisticados.
" Os deepfakes se tornaram um pesadelo para as mulheres e para a sociedade. Criminosos cibernéticos estão explorando a inteligência artificial (IA) para sobrepor os rostos das vítimas em imagens e vídeos pornográficos, bem como em campanhas de propaganda."
"Essas formas de manipulação visam controlar a opinião pública através da disseminação de informações falsas, podendo até prejudicar a reputação de organizações ou indivíduos", afirmou Vo Duong Tu Diem, Diretora Regional da Kaspersky Vietnam.
Embora a IA esteja sendo usada indevidamente por criminosos para fins nefastos, indivíduos e empresas ainda podem usar a inteligência artificial para identificar deepfakes, reduzindo a probabilidade de golpes bem-sucedidos.
Assim, os usuários terão diversas soluções úteis para se protegerem de golpes, como o uso de softwares de detecção de conteúdo gerados por IA (que utilizam algoritmos avançados para analisar e determinar o grau de edição de imagens, vídeos e áudios).
Para vídeos deepfake, já existem ferramentas que ajudam a identificar movimentos incompatíveis entre a boca e a fala. Alguns programas são até mesmo "poderosos" o suficiente para detectar fluxo sanguíneo anormal sob a pele, analisando a resolução do vídeo, pois quando o coração bombeia sangue, as veias do corpo de uma pessoa mudam de cor.
Além disso, as marcas d'água servem como identificadores em imagens, vídeos etc., ajudando os autores a proteger os direitos autorais de seus produtos de IA. Esse recurso pode se tornar uma arma contra deepfakes, pois ajuda a rastrear a origem da plataforma que criou a inteligência artificial. Usuários com conhecimento técnico podem encontrar maneiras de rastrear a fonte do conteúdo para comparar como os dados originais foram modificados pela IA.
Atualmente, algumas tecnologias emergentes utilizam algoritmos de criptografia para inserir valores de hash em intervalos de tempo definidos dentro do vídeo. Se o vídeo tiver sido editado, o valor de hash será alterado, permitindo que os usuários verifiquem se o conteúdo foi adulterado.
Anteriormente, existiam algumas diretrizes para encontrar anomalias em vídeos, como distorção de cores, movimentos musculares não naturais, movimentos oculares, etc. No entanto, à medida que a IA se torna cada vez mais inteligente, esses valores nem sempre produzem resultados precisos.
O processo de verificação da credibilidade de vídeos não depende mais da inspeção visual, mas requer ferramentas tecnológicas projetadas para prevenir e detectar conteúdo falso.
Khanh Linh
Fonte






Comentário (0)