Se você já navegou pelas redes sociais, é provável que tenha se deparado com uma imagem ou vídeo gerado por IA. Muitos foram enganados, como o vídeo viral de coelhos pulando em um trampolim. Mas o Sora, aplicativo irmão do ChatGPT desenvolvido pela OpenAI, está levando os vídeos de IA a um novo patamar, tornando imperativo identificar conteúdo falso.

Ferramentas de vídeo de IA tornam mais difícil do que nunca dizer o que é real. (Fonte: CNET)
Lançado em 2024 e atualizado recentemente com o Sora 2, o aplicativo tem uma interface semelhante à do TikTok, onde cada vídeo é gerado por IA. O recurso "cameo" permite que pessoas reais sejam inseridas nas filmagens simuladas, criando vídeos tão realistas que chegam a ser assustadores.
Como resultado, muitos especialistas temem que Sora espalhe deepfakes, criando confusão e confundindo a linha entre o real e o falso. Celebridades são particularmente vulneráveis, o que levou organizações como a SAG-AFTRA a apelar à OpenAI para reforçar suas proteções.
Identificar conteúdo de IA é um grande desafio para empresas de tecnologia, redes sociais e usuários. Mas existem maneiras de reconhecer vídeos criados com o Sora.
Encontre a marca d'água Sora

A marca d'água Sora (seta verde apontando para dentro) é um sinal para identificar qual ferramenta criou o vídeo. (Fonte: CNET)
Cada vídeo criado no aplicativo Sora para iOS recebe uma marca d'água quando baixado – um logotipo branco do Sora (ícone de nuvem) que se move pelas bordas do vídeo, semelhante à marca d'água do TikTok.
Esta é uma maneira intuitiva de reconhecer conteúdo gerado por IA. Por exemplo, o modelo Gemini "nano banana" do Google também aplica marcas d'água em imagens automaticamente. No entanto, marcas d'água nem sempre são confiáveis. Se a marca d'água for estática, ela pode ser facilmente cortada. Até mesmo marcas d'água dinâmicas, como a do Sora, podem ser removidas usando aplicativos dedicados.
Questionado sobre isso, o CEO da OpenAI, Sam Altman, afirmou que a sociedade precisa se adaptar ao fato de que qualquer pessoa pode criar vídeos falsos. Antes do Sora, não havia uma ferramenta tão disponível, acessível e que não exigisse habilidades. Sua visão aponta para a necessidade de recorrer a outros métodos de verificação.
Verificar metadados

Verificação de metadados – uma etapa fundamental para determinar se um vídeo é gerado por IA, como o Sora. (Fonte: Canto)
Você pode pensar que verificar metadados é muito complicado, mas na verdade é bem simples e muito eficaz.
Metadados são um conjunto de informações anexadas automaticamente ao conteúdo quando ele é criado, como tipo de câmera, local, horário da filmagem e nome do arquivo. Seja conteúdo gerado por humanos ou por IA, os metadados são incluídos. No caso de conteúdo gerado por IA, os metadados geralmente acompanham informações que autenticam sua origem.
A OpenAI é membro da Content Provenance and Authentication Alliance (C2PA), portanto, os vídeos do Sora conterão metadados C2PA. Você pode verificar usando a ferramenta de verificação da Content Authentication Initiative:
Como verificar metadados:
- Visite verify.contentauthenticity.org
- Carregue o arquivo a ser verificado
- Clique em “Abrir”
- Veja informações na tabela à direita.
Se o vídeo foi gerado por IA, o resumo indicará isso. Ao verificar um vídeo do Sora, você verá "publicado pela OpenAI" e informações confirmando que o vídeo foi gerado por IA. Todos os vídeos do Sora devem ter essas informações para verificar sua origem.
Fonte: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Comentário (0)