Vietnam.vn - Nền tảng quảng bá Việt Nam

Nova técnica ajuda a impedir que a IA aprenda com dados não autorizados.

Segundo a agência nacional de ciência da Austrália, a nova técnica altera sutilmente o conteúdo das imagens para torná-las ilegíveis para modelos de IA, permanecendo inalteradas para o olho humano.

VietnamPlusVietnamPlus12/08/2025

Cientistas australianos desenvolveram uma nova técnica que pode impedir que sistemas de Inteligência Artificial (IA) aprendam ilegalmente a partir de imagens, obras de arte e outros conteúdos online.

A técnica, desenvolvida pela agência nacional de ciência da Austrália (CSIRO), altera sutilmente o conteúdo das imagens para torná-las ilegíveis para modelos de IA, permanecendo inalteradas para o olho humano, de acordo com um projeto desenvolvido pela CSIRO em colaboração com o Centro Cooperativo de Pesquisa em Segurança Cibernética da Austrália (CSCRC) e a Universidade de Chicago.

Os autores afirmam que a descoberta pode ajudar artistas, organizações e usuários de redes sociais a proteger seus trabalhos e dados pessoais contra o uso indevido para treinar sistemas de IA ou criar deepfakes — vídeos , imagens ou áudios falsos altamente realistas criados por IA. Por exemplo, os usuários poderiam aplicar automaticamente uma camada protetora às imagens antes de publicá-las, impedindo que a IA aprenda características faciais para criar deepfakes.

Da mesma forma, organizações de defesa podem proteger imagens de satélite sensíveis ou dados sobre ameaças cibernéticas.

Segundo o Dr. Derui Wang, cientista da CSIRO, esse método utiliza uma base matemática sólida para garantir que os modelos de IA não consigam aprender com esse conteúdo; em outras palavras, essa técnica torna os dados "impossíveis de aprender" para a IA a um nível que protege a privacidade e os direitos autorais, sem comprometer sua utilidade para os humanos.

Essa proteção permanece em vigor mesmo que a IA tente se adaptar ou seja reprogramada, acrescentou ele.

O Dr. Wang afirmou que a técnica poderia ser aplicada automaticamente em larga escala. Ele explicou que uma plataforma de mídia social ou um site poderia incorporar essa camada protetora em todas as imagens enviadas. Isso poderia limitar a proliferação de deepfakes, reduzir o roubo de propriedade intelectual e ajudar os usuários a manter o controle sobre seu conteúdo.

Embora o método seja atualmente aplicável apenas a imagens, os pesquisadores planejam expandi-lo para texto, música e vídeo. A tecnologia ainda está em fase teórica e só demonstrou funcionar efetivamente em ambiente laboratorial.

O trabalho científico acima, intitulado "Exemplos de Dados Provavelmente Impossíveis de Aprender", recebeu o Prêmio de Pesquisa Excepcional no Simpósio de Segurança de Sistemas de Rede e Distribuídos (NDSS) de 2025.

(TTXVN/Vietnã+)

Fonte: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp


Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

A Catedral de Notre Dame, na cidade de Ho Chi Minh, está brilhantemente iluminada para dar as boas-vindas ao Natal de 2025.
As jovens de Hanói se vestem lindamente para a época natalina.
Após a tempestade e a inundação, a vila de crisântemos de Tet, em Gia Lai, se recuperou e espera que não haja mais cortes de energia para salvar as plantas.
A capital do damasco amarelo, na região central, sofreu grandes perdas após dois desastres naturais.

Do mesmo autor

Herança

Figura

Negócios

Cafeteria em Dalat registra aumento de 300% na clientela após dono interpretar papel em filme de artes marciais

Acontecimentos atuais

Sistema político

Local

Produto