Deepfakes são vídeos e imagens criados ou alterados digitalmente por meio de inteligência artificial (IA) ou aprendizado de máquina (ML). A pornografia criada com essa tecnologia começou a circular na internet há alguns anos, quando um usuário do Reddit compartilhou clipes pornográficos falsos com rostos de celebridades.
Foto: GI
Qualquer um pode ser uma vítima.
Desde então, criadores de deepfakes continuaram a postar vídeos e imagens semelhantes, visando influenciadores digitais, jornalistas e outros com perfis públicos. Milhares desses vídeos existem em diversos sites.
Com as tecnologias de IA se tornando cada vez mais acessíveis, isso permite que os usuários transformem quem quiserem em "estrelas pornô" sem seu consentimento ou, mais perigosamente, usem a tecnologia para difamar ou chantagear outras pessoas.
Especialistas dizem que o problema pode piorar com o desenvolvimento de ferramentas de IA generativas que são treinadas em bilhões de imagens da internet e geram novos conteúdos usando dados existentes.
“A realidade é que a tecnologia continuará a proliferar, a evoluir e a se tornar mais facilmente disponível e acessível”, disse Adam Dodge, fundador do EndTAB, um grupo que oferece treinamento sobre abuso de tecnologia. “E enquanto isso continuar, as pessoas, sem dúvida, continuarão a abusar dessa tecnologia para prejudicar outras, principalmente por meio de violência sexual online, pornografia deepfake e nudes falsos.”
Noelle Martin, de Perth, Austrália, vivenciou essa realidade. A jovem de 28 anos descobriu pornografia deepfake dela mesma há 10 anos, quando, por curiosidade, um dia, pesquisou sua própria imagem no Google. Até hoje, Martin diz não ter ideia de quem criou as imagens ou vídeos pornográficos falsos. Ela suspeita que alguém tenha usado suas imagens nas redes sociais para criar vídeos pornográficos.
Martin tentou entrar em contato com os sites para remover os vídeos, mas seus esforços foram em vão. Alguns não responderam. Outros os removeram, mas rapidamente os republicaram. "Você não pode vencer", disse a Sra. Martin. "Ficará na internet para sempre e pode arruinar sua vida."
Os esforços das empresas de tecnologia para resolver o problema
Alguns modelos de IA dizem que restringiram o acesso a imagens pornográficas.
A OpenAI afirmou ter removido conteúdo pornográfico dos dados usados para treinar seu gerador de imagens DALL-E, o que deve limitar a probabilidade de uso indevido. A empresa também filtra solicitações e afirma impedir que usuários criem imagens de celebridades e políticos proeminentes com IA. Outro modelo, o Midjourney, também bloqueia o uso de determinadas palavras-chave e incentiva os usuários a sinalizar imagens problemáticas aos moderadores.
Enquanto isso, a Stability AI também lançou uma atualização que impede os usuários de criar imagens explícitas. Essas mudanças ocorrem após relatos de que alguns usuários estavam usando a tecnologia para criar nus inspirados em celebridades.
O porta-voz da Stability AI, Motez Bishara, disse que o filtro usa uma combinação de palavras-chave e outras técnicas, como reconhecimento de imagem, para detectar nudez. Mas os usuários podem ajustar o software e criar o que quiserem, já que a empresa liberou o código-fonte aberto do aplicativo.
Algumas empresas de mídia social também reforçaram as regras para proteger melhor suas plataformas de material prejudicial.
No mês passado, o TikTok disse que todo conteúdo deepfake ou manipulado deve ser rotulado para indicar que é falso ou alterado de alguma forma.
A plataforma de jogos Twitch também atualizou recentemente suas políticas sobre imagens deepfake depois que um streamer popular chamado Atrioc foi flagrado abrindo um site pornô deepfake em seu navegador durante uma transmissão ao vivo no final de janeiro.
A Apple e o Google disseram que removeram recentemente um aplicativo de suas lojas de aplicativos por exibir vídeos deepfake sexualmente sugestivos para promover seus produtos.
De cantor ocidental a ídolo do K-pop.
Pesquisas sobre pornografia deepfake são raras, mas um relatório de 2019 da empresa de IA DeepTrace Labs descobriu que ela era quase totalmente usada como arma contra mulheres, sendo as atrizes ocidentais as mais visadas, seguidas pelas cantoras de K-pop.
A porta-voz da Meta, Dani Lever, disse em um comunicado que as políticas da empresa restringem conteúdo adulto gerado por IA e não por IA, e restringem a página do aplicativo gerador de deepfakes de anunciar em sua plataforma.
Em fevereiro, o Meta, assim como sites adultos como Only**** e Porn***, começaram a participar de uma ferramenta online chamada Take It Down, que permite que adolescentes denunciem imagens e vídeos sexualmente explícitos de si mesmos na internet. O site suporta tanto vídeos filmados secretamente quanto vídeos gerados por IA.
Hoang Ton (de acordo com a AP)
[anúncio_2]
Fonte






Comentário (0)