Abaixo estão as opiniões de dois especialistas da Universidade RMIT sobre os efeitos nocivos dos deepfakes e soluções propostas para esse problema:
Dr. Jonathan Crellin (à esquerda) e Dr. Nguyen Van Thang Long (à direita). (Fonte: Universidade RMIT) |
Os cibercriminosos exploram novas tecnologias de maneiras imprevistas
Dr. Jonathan Crellin, Chefe de Segurança da Informação, Faculdade de Ciências , Engenharia e Tecnologia, Universidade RMIT :
Deepfake é uma imagem gerada por máquina que pode combinar imagens ou vídeos de várias fontes, criando uma imagem, vídeo ou até mesmo áudio muito realista.
Deepfakes dependem de uma técnica de IA chamada aprendizado de máquina, que pode substituir e integrar elementos como o rosto de uma pessoa em outra imagem ou vídeo.
Um exemplo de uso de deepfake é combinar conteúdo pornográfico com fotos de Taylor Swift para criar imagens falsas.
Para fazer isso, o mentor precisava de algumas imagens para que o software pudesse aprender sobre as expressões faciais do cantor e, em seguida, combiná-las com conteúdo pornográfico para criar fotos obscenas, causando a mancha na imagem do cantor.
Na verdade, há rumores de que essas fotos foram divulgadas por um grupo do Telegram e foram criadas usando a ferramenta Microsoft Designer com suporte de IA integrado.
Qualquer um pode se tornar uma vítima, pois os bandidos só precisam de uma foto, vídeo ou gravação de áudio da pessoa que está sendo imitada.
Notícias falsas, em muitas formas, têm o potencial de ser usadas para criar notícias falsas, e é seguro assumir que a próxima eleição presidencial dos EUA estará repleta dessas notícias falsas.
Atualmente, legisladores ao redor do mundo estão tentando promulgar leis contra esse tipo de imagem.
Algumas abordagens estão começando a ser adotadas nos Estados Unidos em termos de legislação, como recorrer a ações civis ou leis para lidar com “a disseminação de imagens sexualmente explícitas de uma pessoa geradas por IA sem o consentimento dessa pessoa”.
A China também introduziu novas regulamentações que permitiriam processar aqueles que espalhassem imagens geradas por IA.
O Reino Unido tornou ilegal o compartilhamento de conteúdo deepfake de acordo com sua lei de segurança online.
Como detectar ou prevenir isso?
O primeiro passo é reduzir o número de fotos, vídeos ou gravações de áudio que você mantém online. Compartilhe-os apenas com pessoas que você conhece e não os publique amplamente online. Uma vez que algo está na internet, é quase impossível removê-lo.
A segunda maneira é combinar uma palavra secreta com sua família para autenticar a ligação, reduzindo o risco de cair na armadilha de uma ligação falsa.
Imagens, especialmente vídeos, podem conter erros estranhos (com aparência encenada). Se você identificar esses erros, há uma grande chance de que a imagem ou o som tenham sido falsificados.
Outra técnica que pode ser usada é pesquisar por “imagem invertida” no Google ou em outros mecanismos de busca, para determinar a origem da imagem original.
A lição final é não acreditar cegamente no que você vê, a câmera (ou IA) pode mentir!
Deepfakes representam uma grande ameaça para celebridades e políticos
Dr. Nguyen Van Thang Long, Professor Sênior, Faculdade de Comunicação e Design, Universidade RMIT :
Com a proliferação de notícias falsas de deepfakes, as equipes de mídia de celebridades e políticos precisam ter recursos disponíveis para monitorar e responder prontamente às notícias falsas ou corrigi-las continuamente.
Se os deepfakes forem sistematicamente combinados com formas organizadas de “RP sujas”, essa tarefa se torna ainda mais difícil devido à proliferação de informações conflitantes, e notícias falsas e notícias negativas sempre serão mais compartilhadas do que notícias positivas.
Geralmente, ao ver notícias compartilhadas nas redes sociais, os indivíduos costumam ter o hábito de confirmar informações por meio de canais oficiais de mídia.
Com o conteúdo deepfake inundando as mídias sociais, está cada vez mais difícil e demorado verificar a precisão das notícias tradicionais, o que exige pesquisa aprofundada e técnicas de verificação.
Quanto mais demorarmos a verificar notícias e fontes, maior será a probabilidade de informações falsas, fabricadas ou enganosas se espalharem devido à alta velocidade de compartilhamento e comentários nas mídias sociais.
Isso agrava o problema subjacente e tem o potencial de levar à agitação social, especialmente se o conteúdo estiver relacionado a discurso político, religião, gênero, estratégia de negócios ou questões macroeconômicas.
No contexto da proliferação do deepfake, a estratégia de gerenciamento de risco mais eficaz continua sendo manter canais de comunicação consistentes, por meio de plataformas populares de mídia social, sites ou reuniões presenciais, entre empresas, celebridades, políticos e principais partes interessadas, como fãs, imprensa, comunidades e funcionários.
O uso crescente da IA traz benefícios e novos problemas inesperados. Foto ilustrativa. (Fonte: Freepik) |
Ao manter esses canais de comunicação, o recebimento de informações relacionadas a deepfakes se torna mais rápido, permitindo a correção de rumores de forma oportuna e eficaz, expondo informações incorretas desde o início.
No entanto, empresas, celebridades e políticos precisam desenvolver um plano de resposta à crise específico para deepfakes. Por exemplo, quem está denunciando, por quais canais de mídia, critérios para verificar informações por meio de evidências e fontes confiáveis, estabelecer um cronograma para a resolução de rumores e delinear uma estratégia para restaurar a reputação.
Com um plano bem preparado e metódico, lidar com uma crise de deepfake será mais viável, minimizando possíveis consequências desagradáveis.
Fonte
Comentário (0)