O Gabinete do Procurador-Geral de New Hampshire anunciou na segunda-feira que está investigando uma possível manipulação de eleitores após reclamações de uma voz falsa que soava exatamente como a do presidente dos EUA, Joe Biden, pedindo aos eleitores que não votassem nas primárias do estado.
Pesquisadores também alertaram sobre o uso de áudio deepfake para imitar políticos e líderes, com casos importantes ocorrendo em 2023 no Reino Unido, Índia, Nigéria, Sudão, Etiópia e Eslováquia.
Uma pessoa vota nas eleições primárias em New Hampshire, EUA. Foto: Getty
De acordo com especialistas, o áudio deepfake se tornou uma forma popular de desinformação devido ao surgimento de uma série de ferramentas de IA baratas e eficazes de startups. A Microsoft também desenvolveu um novo modelo de IA que consegue copiar vozes de apenas três segundos de gravação.
“Quando se trata de manipulação visual, todo mundo conhece o Photoshop ou pelo menos sabe que ele existe”, disse Henry Ajder, especialista em IA e deepfake e consultor da Adobe, Meta e EY. “Há muito pouco conhecimento sobre como o áudio pode ser manipulado, então, para mim, isso nos deixa realmente vulneráveis.”
Em setembro, o NewsGuard, um sistema que avalia a qualidade e a confiabilidade de sites de notícias, descobriu uma rede de contas do TikTok disfarçadas de sites de notícias legítimos, usando conteúdo gerado por IA para disseminar teorias da conspiração e desinformação política. Gravações deepfake, incluindo a voz do ex-presidente dos EUA Barack Obama, geraram centenas de milhões de visualizações.
As dublagens falsas parecem ter sido geradas por uma ferramenta fornecida pela ElevenLabs, apoiada pela Andreessen Horowitz, enquanto os clipes acumularam centenas de milhões de visualizações, disse o NewsGuard.
“Mais de 99% dos usuários em nossa plataforma estão criando conteúdo interessante, criativo e útil, mas reconhecemos que há casos de uso indevido e desenvolvemos e introduzimos continuamente proteções para limitá-los”, disse a ElevenLabs.
A ElevenLabs, fundada há dois anos pelos ex-funcionários do Google e da Palantir, Piotr Dabkowski e Mati Staniszewski, oferece ferramentas rudimentares de geração de áudio por IA gratuitamente, com apenas um clique. Os planos de assinatura variam de US$ 1 por mês a US$ 330 por mês, e mais, para quem procura serviços mais complexos.
No ano passado, agências de inteligência dos EUA alertaram em um relatório que “os golpes de IA personalizada aumentaram significativamente devido ao lançamento de modelos sofisticados e bem treinados de clonagem de voz de IA”.
Além dos golpes com motivação financeira, especialistas políticos agora alertam sobre clipes de áudio deepfake virais, bem como sobre o uso de deepfakes para chamadas automáticas ou campanhas. "É possível construir uma campanha de desinformação poderosa e generalizada mirando em celulares", disse AJ Nash, vice-presidente e membro ilustre da área de inteligência do grupo de segurança cibernética ZeroFox.
Algumas dessas empresas têm sido proativas na busca por outras maneiras de combater a desinformação. A Microsoft emitiu uma declaração de ética, instando os usuários a denunciarem qualquer uso indevido de sua ferramenta de áudio com IA. A ElevenLabs criou suas próprias ferramentas de detecção para identificar gravações de áudio criadas por seu sistema.
Durante as eleições de 2023 na Nigéria, um clipe manipulado por IA se tornou viral nas redes sociais "pretendendo sugerir que um candidato da oposição estava planejando fraudar a votação", de acordo com o grupo de direitos humanos Freedom House.
Na Eslováquia, uma gravação de áudio falsa do candidato da oposição Michal Šimečka aparentemente conspirando para fraudar a eleição se tornou viral poucos dias antes da eleição presidencial do país em setembro.
“O deepfake de New Hampshire é um lembrete das muitas maneiras pelas quais os deepfakes podem confundir e enganar”, disse Robert Weissman, presidente do grupo sem fins lucrativos de defesa do consumidor Public Citizen. “O momento do deepfake político chegou. Os formuladores de políticas precisam agir rapidamente para implementar salvaguardas ou enfrentaremos o caos eleitoral.”
Mai Anh (de acordo com o FT)
[anúncio_2]
Fonte
Comentário (0)