Deepfakes são vídeos e imagens criados ou alterados digitalmente usando inteligência artificial (IA) ou aprendizado de máquina (ML). Conteúdo pornográfico criado com essa tecnologia começou a circular na internet há alguns anos, quando um usuário do Reddit compartilhou vídeos pornográficos falsos com os rostos de celebridades.
Foto: GI
Qualquer pessoa pode se tornar uma vítima.
Desde então, criadores de deepfakes têm publicado continuamente vídeos e imagens semelhantes, visando influenciadores digitais, jornalistas e outras pessoas com perfis públicos. Milhares desses vídeos existem em diversos sites.
Com as tecnologias de IA tornando-se cada vez mais acessíveis, isso permite que os usuários transformem qualquer pessoa que desejarem em "estrelas de filmes pornográficos" sem o seu consentimento ou, o que é mais perigoso, usem essa tecnologia para difamar ou chantagear outras pessoas.
Especialistas afirmam que o problema pode piorar com o desenvolvimento de ferramentas de IA generalizadas, treinadas com bilhões de imagens da internet e que geram novos conteúdos usando dados já existentes.
“A realidade é que a tecnologia continuará a proliferar, continuará a evoluir e continuará a tornar-se mais fácil e acessível”, disse Adam Dodge, fundador da EndTAB, um grupo que oferece treinamento sobre o uso indevido da tecnologia. “E enquanto isso continuar, as pessoas continuarão a abusar dessa tecnologia para prejudicar outras, principalmente por meio de violência sexual online, pornografia deepfake e nudez falsa.”
Noelle Martin, de Perth, Austrália, vivenciou isso em primeira mão. A jovem de 28 anos descobriu suas próprias imagens pornográficas deepfake há 10 anos, quando, por curiosidade, usou o Google para procurar fotos suas. Até hoje, Martin afirma não saber quem criou essas imagens ou vídeos pornográficos falsos. Ela suspeita que alguém tenha usado imagens de suas redes sociais para criar os vídeos pornográficos.
Apesar das tentativas de Martin de contatar os sites para que os vídeos fossem removidos, seus esforços foram em vão. Alguns não responderam. Outros os removeram, mas os republicaram rapidamente. "Não tem jeito", disse Martin. "Isso vai ficar na internet para sempre e pode arruinar sua vida."
Esforços das empresas de tecnologia para corrigir a situação.
Alguns modelos de IA indicaram que possuem acesso restrito a imagens pornográficas.
A OpenAI afirma ter removido conteúdo pornográfico dos dados usados para treinar sua ferramenta de geração de imagens DALL-E, o que limitará o potencial de uso indevido. A empresa também filtra solicitações e diz impedir que usuários criem imagens de IA de celebridades e políticos proeminentes. O Midjourney, outro modelo, também bloqueia o uso de certas palavras-chave e incentiva os usuários a sinalizarem imagens problemáticas para os moderadores.
Entretanto, a Stability AI também lançou uma atualização para impedir que os usuários criem imagens sensíveis. Essas mudanças ocorrem após relatos de que alguns usuários estavam criando fotos de nudez inspiradas em celebridades usando a tecnologia.
O porta-voz da Stability AI, Motez Bishara, afirmou que o filtro utiliza uma combinação de palavras-chave e outras técnicas, como reconhecimento de imagem, para detectar nudez. No entanto, os usuários podem manipular o software e criar o que quiserem, pois a empresa disponibilizou o código-fonte aberto do aplicativo.
Algumas empresas de redes sociais também reforçaram suas regras para proteger melhor suas plataformas de conteúdo prejudicial.
No mês passado, o TikTok afirmou que todo conteúdo deepfake ou manipulado deve ser rotulado para indicar que é falso ou foi alterado de alguma forma.
A plataforma de jogos Twitch atualizou recentemente suas políticas sobre imagens deepfake depois que um streamer popular chamado Atrioc foi flagrado acessando um site de pornografia deepfake em seu navegador durante uma transmissão ao vivo no final de janeiro.
A Apple e o Google anunciaram recentemente a remoção de um aplicativo de suas lojas de aplicativos por usar vídeos deepfake com conteúdo sexualmente sugestivo para promover produtos.
De cantores ocidentais a ídolos do K-pop.
A pesquisa sobre pornografia deepfake é rara, mas um relatório de 2019 da empresa de IA DeepTrace Labs descobriu que ela era usada quase que inteiramente como arma contra mulheres, sendo as atrizes ocidentais as mais visadas, seguidas pelas cantoras de K-pop.
A porta-voz da Meta, Dani Lever, afirmou em comunicado que a política da empresa restringe tanto conteúdo adulto gerado por IA quanto conteúdo não gerado por IA, e também impede que a página do aplicativo de criação de deepfakes veicule anúncios em sua plataforma.
Em fevereiro, a Meta, juntamente com sites adultos como Only**** e Porn***, começou a participar de uma ferramenta online chamada Take It Down, que permite que adolescentes denunciem suas próprias imagens e vídeos pornográficos da internet. O site suporta o processamento tanto de vídeos gravados secretamente quanto de vídeos gerados por inteligência artificial.
Hoang Ton (de acordo com a AP)
Fonte










Comentário (0)