Cientistas australianos desenvolveram uma nova técnica que pode impedir que sistemas de Inteligência Artificial (IA) aprendam ilegalmente com imagens, obras de arte e outros conteúdos online.
A técnica, desenvolvida pela agência científica nacional da Austrália (CSIRO), altera sutilmente o conteúdo das imagens para torná-las ilegíveis para modelos de IA, mas permanecem inalteradas ao olho humano, de acordo com um projeto desenvolvido pela CSIRO em colaboração com o Centro de Pesquisa Cooperativa de Segurança Cibernética da Austrália (CSCRC) e a Universidade de Chicago.
Os autores afirmam que a inovação pode ajudar artistas, organizações e usuários de redes sociais a proteger seus trabalhos e dados pessoais de serem usados para treinar sistemas de IA ou criar deepfakes – vídeos , imagens ou áudios falsos altamente realistas criados por IA. Por exemplo, os usuários poderiam aplicar automaticamente uma camada protetora às imagens antes de publicá-las, impedindo que a IA aprenda características faciais para criar deepfakes.
Da mesma forma, organizações de defesa podem proteger imagens de satélite ou dados confidenciais sobre ameaças cibernéticas.
De acordo com o Dr. Derui Wang, cientista do CSIRO, esse método usa uma base matemática forte para garantir que os modelos de IA não possam aprender com esse conteúdo ou, em outras palavras, essa técnica torna os dados "inaprendíveis" para a IA a um grau que protege a privacidade e os direitos autorais, ao mesmo tempo em que mantém sua utilidade para os humanos.
Essa proteção permanece em vigor mesmo que a IA tente se adaptar ou seja retreinada, acrescentou.
O Dr. Wang afirmou que a técnica poderia ser aplicada automaticamente em larga escala. Ele afirmou que uma plataforma de mídia social ou site poderia incorporar essa camada protetora em todas as imagens publicadas. Isso poderia limitar a proliferação de deepfakes, reduzir o roubo de propriedade intelectual e ajudar os usuários a manter o controle sobre seu conteúdo.
Embora o método atualmente seja aplicável apenas a imagens, os pesquisadores planejam expandi-lo para texto, música e vídeo. A tecnologia ainda está em fase teórica e só demonstrou eficácia em laboratório.
O trabalho científico acima, intitulado “Exemplos de dados comprovadamente inaprendíveis”, recebeu o prêmio de Pesquisa de Destaque no Simpósio de Segurança de Redes e Sistemas Distribuídos (NDSS) de 2025.
Fonte: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Comentário (0)