Golpe de imitação de voz com voz deepfake
Na era do rápido desenvolvimento da inteligência artificial, a voz — um dos fatores antes considerados evidências autênticas — tornou-se uma ferramenta perigosa nas mãos de criminosos. A tecnologia de voz deepfake permite que vozes falsas sejam idênticas às de pessoas reais, criando chamadas falsas sofisticadas para fraudar e se apropriar de propriedade.
Por que a voz deepfake é assustadora?
Deepfake voice é uma tecnologia que aplica inteligência artificial (IA) e aprendizado de máquina para criar uma voz falsa idêntica à voz de uma pessoa real.
Com o suporte de modelos modernos como Tacotron, WaveNet, ElevenLabs ou plataformas de clonagem de voz como Respeecher, os fraudadores precisam apenas de 3 a 10 segundos de amostras de voz para criar um deepfake 95% confiável.
Vozes deepfake se tornam especialmente perigosas devido à sua capacidade de imitar vozes quase perfeitamente, desde a pronúncia e entonação até mesmo os hábitos de fala únicos de cada pessoa.
Isso torna muito difícil para as vítimas distinguir entre o real e o falso, especialmente quando a voz pertence a parentes, amigos ou superiores.
A mineração de voz também é fácil, já que a maioria das pessoas hoje expõe seus áudios em plataformas como TikTok, transmissões ao vivo em redes sociais, podcasts ou reuniões online. Mais preocupante ainda, as vozes deepfake não deixam rastros visuais como imagens ou vídeos , dificultando as investigações e deixando as vítimas vulneráveis a perdas financeiras.
Apenas alguns segundos de amostra de voz são suficientes para criar um deepfake
Os golpes de deepfake voice estão se tornando cada vez mais sofisticados, geralmente usando um cenário familiar: se passar por um conhecido em uma situação de emergência para criar pânico e pressionar a vítima a transferir dinheiro imediatamente.
No Vietnã, houve o caso de uma mãe que recebeu uma ligação do seu "filho" informando que ele havia sofrido um acidente e precisava de dinheiro urgentemente. No Reino Unido, um diretor de empresa foi enganado em mais de US$ 240.000 após ouvir seu "chefe" solicitar uma transferência de dinheiro por telefone. Um funcionário administrativo também foi enganado ao receber uma ligação de um "chefão" solicitando pagamento a um "parceiro estratégico"...
O ponto comum nessas situações é que a voz falsa é reproduzida exatamente como a de um parente ou superior, fazendo com que a vítima confie totalmente nela e não tenha tempo de verificar.
Verifique sempre, não confie imediatamente
Com o aumento dos golpes de deepfake voice, as pessoas são aconselhadas a não transferir dinheiro por telefone apenas com base na voz, mesmo que soe exatamente como a de alguém querido. Em vez disso, ligue novamente para o número antigo ou verifique as informações em vários canais antes de realizar qualquer transação.
Muitos especialistas também recomendam a criação de uma "senha interna" em casa ou na empresa para verificação em situações incomuns.
Além disso, é necessário limitar a publicação de vídeos com vozes claras nas redes sociais, especialmente os de conteúdo longo. Em particular, é necessário alertar e orientar proativamente grupos vulneráveis, como idosos ou pessoas com pouca experiência em tecnologia, pois estes são alvos prioritários de golpes de alta tecnologia.
Vozes de parentes, amigos e colegas podem ser falsificadas.
Em muitos países, as autoridades começaram a reforçar o controle sobre a tecnologia deepfake com sua própria estrutura legal.
Nos EUA, vários estados proibiram o uso de deepfakes em campanhas eleitorais ou para disseminar desinformação. A União Europeia (UE) aprovou a Lei de IA, que exige que as organizações sejam transparentes e avisem claramente se um conteúdo é gerado por inteligência artificial.
Enquanto isso, no Vietnã, embora não haja regulamentações específicas para vozes deepfake, atos relacionados podem ser tratados de acordo com a lei atual, com crimes como fraude, invasão de privacidade ou fraude de identidade.
No entanto, a realidade é que a tecnologia está se desenvolvendo a um ritmo muito além da capacidade de monitoramento da lei, deixando muitas brechas que os criminosos podem explorar.
Quando a voz não é mais evidência
A voz costumava ser algo íntimo e confiável, mas com a deepfake voice, ela deixou de ser uma prova confiável. Na era da IA, cada indivíduo precisa ter conhecimento de defesa digital, verificar proativamente e estar sempre vigilante, pois uma chamada pode ser uma armadilha.
Fonte: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm
Comentário (0)