Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

A fraude de voz deepfake está ficando cada vez mais sofisticada. O que fazer?

A tecnologia de voz deepfake permite que as pessoas imitem vozes idênticas às de pessoas reais, fazendo com que muitas pessoas caiam na armadilha de acreditar em vozes familiares.

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

Golpe de imitação de voz com voz deepfake

Na era do rápido desenvolvimento da inteligência artificial, a voz — um dos fatores antes considerados evidências autênticas — tornou-se uma ferramenta perigosa nas mãos de criminosos. A tecnologia de voz deepfake permite que vozes falsas sejam idênticas às de pessoas reais, criando chamadas falsas sofisticadas para fraudar e se apropriar de propriedade.

Por que a voz deepfake é assustadora?

Deepfake voice é uma tecnologia que aplica inteligência artificial (IA) e aprendizado de máquina para criar uma voz falsa idêntica à voz de uma pessoa real.

Com o suporte de modelos modernos como Tacotron, WaveNet, ElevenLabs ou plataformas de clonagem de voz como Respeecher, os fraudadores precisam apenas de 3 a 10 segundos de amostras de voz para criar um deepfake 95% confiável.

Vozes deepfake se tornam especialmente perigosas devido à sua capacidade de imitar vozes quase perfeitamente, desde a pronúncia e entonação até mesmo os hábitos de fala únicos de cada pessoa.

Isso torna muito difícil para as vítimas distinguir entre o real e o falso, especialmente quando a voz pertence a parentes, amigos ou superiores.

A mineração de voz também é fácil, já que a maioria das pessoas hoje expõe seus áudios em plataformas como TikTok, transmissões ao vivo em redes sociais, podcasts ou reuniões online. Mais preocupante ainda, as vozes deepfake não deixam rastros visuais como imagens ou vídeos , dificultando as investigações e deixando as vítimas vulneráveis ​​a perdas financeiras.

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

Apenas alguns segundos de amostra de voz são suficientes para criar um deepfake

Os golpes de deepfake voice estão se tornando cada vez mais sofisticados, geralmente usando um cenário familiar: se passar por um conhecido em uma situação de emergência para criar pânico e pressionar a vítima a transferir dinheiro imediatamente.

No Vietnã, houve o caso de uma mãe que recebeu uma ligação do seu "filho" informando que ele havia sofrido um acidente e precisava de dinheiro urgentemente. No Reino Unido, um diretor de empresa foi enganado em mais de US$ 240.000 após ouvir seu "chefe" solicitar uma transferência de dinheiro por telefone. Um funcionário administrativo também foi enganado ao receber uma ligação de um "chefão" solicitando pagamento a um "parceiro estratégico"...

O ponto comum nessas situações é que a voz falsa é reproduzida exatamente como a de um parente ou superior, fazendo com que a vítima confie totalmente nela e não tenha tempo de verificar.

Verifique sempre, não confie imediatamente

Com o aumento dos golpes de deepfake voice, as pessoas são aconselhadas a não transferir dinheiro por telefone apenas com base na voz, mesmo que soe exatamente como a de alguém querido. Em vez disso, ligue novamente para o número antigo ou verifique as informações em vários canais antes de realizar qualquer transação.

Muitos especialistas também recomendam a criação de uma "senha interna" em casa ou na empresa para verificação em situações incomuns.

Além disso, é necessário limitar a publicação de vídeos com vozes claras nas redes sociais, especialmente os de conteúdo longo. Em particular, é necessário alertar e orientar proativamente grupos vulneráveis, como idosos ou pessoas com pouca experiência em tecnologia, pois estes são alvos prioritários de golpes de alta tecnologia.

Deepfake Voice - Ảnh 3.

Vozes de parentes, amigos e colegas podem ser falsificadas.

Em muitos países, as autoridades começaram a reforçar o controle sobre a tecnologia deepfake com sua própria estrutura legal.

Nos EUA, vários estados proibiram o uso de deepfakes em campanhas eleitorais ou para disseminar desinformação. A União Europeia (UE) aprovou a Lei de IA, que exige que as organizações sejam transparentes e avisem claramente se um conteúdo é gerado por inteligência artificial.

Enquanto isso, no Vietnã, embora não haja regulamentações específicas para vozes deepfake, atos relacionados podem ser tratados de acordo com a lei atual, com crimes como fraude, invasão de privacidade ou fraude de identidade.

No entanto, a realidade é que a tecnologia está se desenvolvendo a um ritmo muito além da capacidade de monitoramento da lei, deixando muitas brechas que os criminosos podem explorar.

Quando a voz não é mais evidência

A voz costumava ser algo íntimo e confiável, mas com a deepfake voice, ela deixou de ser uma prova confiável. Na era da IA, cada indivíduo precisa ter conhecimento de defesa digital, verificar proativamente e estar sempre vigilante, pois uma chamada pode ser uma armadilha.

PHAN HAI DANG

Fonte: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Caças Su 30-MK2 lançam projéteis de interferência, helicópteros hasteiam bandeiras no céu da capital
Deleite-se com o jato de caça Su-30MK2 lançando uma armadilha de calor brilhante no céu da capital
(Ao vivo) Ensaio geral da celebração, desfile e marcha em comemoração ao Dia Nacional 2 de setembro
Duong Hoang Yen canta a cappella "Fatherland in the Sunlight" causando fortes emoções

Do mesmo autor

Herança

Figura

Negócios

No videos available

Notícias

Sistema político

Local

Produto