Com custos iniciais tão baixos quanto cerca de 1,3 milhão de VND, ferramentas de falsificação de identidade, como troca de rostos e falsificação de voz, estão gerando preocupações sobre o risco de fraude, falsificação de imagem pessoal e consequências para a segurança cibernética.

(Imagem ilustrativa)
Os preços baixos praticados na darknet representam um risco significativo.
A equipe global de pesquisa e análise da Kaspersky (GReAT) acaba de anunciar descobertas que mostram que inúmeros anúncios oferecendo serviços de criação de vídeos e áudios deepfake em tempo real estão aparecendo com frequência em mercados da darknet. Os preços iniciais registrados giram em torno de US$ 50 (aproximadamente 1,3 milhão de VND) e US$ 30 (aproximadamente 800.000 VND) para mensagens de voz falsas, dependendo da complexidade e duração do conteúdo.
Anteriormente, os serviços de deepfake "legítimos" tinham preços que variavam de US$ 300 a US$ 20.000 por minuto.
A queda drástica no preço — até 400 vezes menor que a taxa anteriormente vigente — aumenta o risco de exploração para fins ilícitos.
Recursos publicitários e táticas de "isca" utilizadas por agentes maliciosos.
Os anúncios atuais vão além da simples criação de vídeos falsos; eles também permitem a troca de rostos em tempo real durante videochamadas, a falsificação da imagem da câmera do dispositivo ou até mesmo a "troca" de rostos para burlar a autenticação. Além disso, anunciam a capacidade de sincronizar expressões faciais com a fala e até mesmo oferecer suporte a vários idiomas.
Além disso, estão sendo anunciados serviços de "clonagem de voz", que permitem aos usuários imitar vozes com tom e entonação ajustáveis para expressar diferentes emoções. No entanto, muitos especialistas suspeitam que essas sejam apenas propagandas enganosas – os compradores podem ser induzidos a transferir dinheiro antecipadamente, mas não receber o produto de qualidade prometido.
"A procura por esta ferramenta também está a aumentar."
Dmitry Galov , chefe da GReAT na Kaspersky (Rússia e CEI) , afirmou: "Não estamos apenas percebendo anúncios oferecendo serviços de deepfake ('deepfake como serviço'), mas também observando uma demanda crescente por essas ferramentas."
Segundo ele, os cibercriminosos estão experimentando e integrando IA em suas estratégias de ataque. Algumas plataformas estão até mesmo desenvolvendo seus próprios LLMs "maliciosos", separados dos modelos públicos, que podem ser executados diretamente no dispositivo do atacante.
Embora os deepfakes ainda não possam ser considerados uma ameaça cibernética totalmente nova, essa tecnologia pode tornar os ataques mais sofisticados e difíceis de detectar.
Recomendações e métodos para identificar deepfakes.
A Kaspersky recomenda que empresas e organizações implementem medidas abrangentes de cibersegurança, que vão além da simples instalação de software de proteção e da formação de uma equipe de profissionais de TI qualificados para detectar e responder a ameaças.
Além disso, os funcionários da organização precisam ser treinados para reconhecer anomalias em vídeos ou áudios que possam ser produtos da tecnologia deepfake. Esses tipos de vídeos geralmente apresentam movimentos bruscos e não naturais, iluminação ou tons de pele inconsistentes entre os quadros, personagens que parecem piscar com muita frequência ou quase não piscam, e rostos que podem parecer ligeiramente distorcidos ou deformados.
Além disso, a qualidade da imagem costuma ser baixa e os frames são instáveis, especialmente em condições de pouca luz, fazendo com que o vídeo pareça artificial. Estar atento às ameaças de deepfakes e conscientizar as pessoas são considerados passos iniciais cruciais para mitigar os danos causados por golpes sofisticados na era da IA.
Fonte: https://doanhnghiepvn.vn/chuyen-doi-so/rui-ro-tu-deepfake-gia-re-tu-quang-cao-darknet-den-loi-keu-goi-canh-giac/20251016105304840






Comentário (0)