Australiska forskare har utvecklat en ny teknik som kan förhindra att artificiell intelligens (AI) lär sig olagligt från bilder, konstverk och annat onlineinnehåll.
Tekniken, som utvecklats av Australiens nationella vetenskapsbyrå (CSIRO), ändrar subtilt innehållet i bilder för att göra dem oläsliga för AI-modeller samtidigt som de förblir oförändrade för det mänskliga ögat, enligt ett projekt som utvecklats av CSIRO i samarbete med Australiens Cybersecurity Cooperative Research Centre (CSCRC) och University of Chicago.
Författarna säger att genombrottet kan hjälpa konstnärer, organisationer och användare av sociala medier att skydda sitt arbete och sina personuppgifter från att användas för att träna AI-system eller skapa deepfakes – mycket realistiska falska videor , bilder eller ljud skapade av AI. Till exempel kan användare automatiskt applicera ett skyddande lager på bilder innan de publiceras, vilket förhindrar AI från att lära sig ansiktsdrag för att skapa deepfakes.
På liknande sätt kan försvarsorganisationer skydda känsliga satellitbilder eller data om cyberhot.
Enligt Dr. Derui Wang, forskare vid CSIRO, använder den här metoden en stark matematisk grund för att säkerställa att AI-modeller inte kan lära sig av det innehållet, eller med andra ord, den här tekniken gör data "oinlärbara" för AI i en grad som skyddar integritet och upphovsrätt, samtidigt som den bibehåller dess användbarhet för människor.
Detta skydd kvarstår även om AI:n försöker anpassa sig eller omskolas, tillade han.
Dr. Wang sa att tekniken skulle kunna tillämpas automatiskt i stor skala. Han sa att en social medieplattform eller webbplats skulle kunna bädda in detta skyddande lager i alla uppladdade bilder. Detta skulle kunna begränsa spridningen av deepfakes, minska stöld av immateriella rättigheter och hjälpa användare att behålla kontrollen över sitt innehåll.
Även om metoden för närvarande endast är tillämplig på bilder, planerar forskarna att utöka den till text, musik och video. Tekniken är fortfarande i det teoretiska stadiet och har bara visat sig fungera effektivt i en laboratoriemiljö.
Ovanstående vetenskapliga arbete, med titeln ”Bevisbart olärbara dataexempel”, tilldelades priset för enastående forskning vid Network and Distributed Systems Security Symposium (NDSS) 2025.
Källa: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Kommentar (0)