Australske forskere har utviklet en ny teknikk som kan forhindre at kunstig intelligens (KI) lærer ulovlig fra bilder, kunstverk og annet innhold på nettet.
Teknikken, utviklet av Australias nasjonale vitenskapsbyrå (CSIRO), endrer subtilt innholdet i bilder for å gjøre dem uleselige for AI-modeller, samtidig som de forblir uendret for det menneskelige øyet, ifølge et prosjekt utviklet av CSIRO i samarbeid med Australias Cybersecurity Cooperative Research Centre (CSCRC) og University of Chicago.
Forfatterne sier at gjennombruddet kan hjelpe kunstnere, organisasjoner og brukere av sosiale medier med å beskytte arbeidet og personopplysningene sine mot å bli brukt til å trene AI-systemer eller lage deepfakes – svært realistiske falske videoer , bilder eller lyd laget av AI. For eksempel kan brukere automatisk legge på et beskyttende lag på bilder før de publiseres, slik at AI ikke lærer ansiktstrekk for å lage deepfakes.
På samme måte kan forsvarsorganisasjoner beskytte sensitive satellittbilder eller data om cybertrusler.
Ifølge Dr. Derui Wang, en forsker ved CSIRO, bruker denne metoden et sterkt matematisk grunnlag for å sikre at AI-modeller ikke kan lære av det innholdet, eller med andre ord, denne teknikken gjør dataene «ulærbare» for AI i en grad som beskytter personvern og opphavsrett, samtidig som den beholder sin nytteverdi for mennesker.
Denne beskyttelsen forblir i kraft selv om AI-en prøver å tilpasse seg eller blir omskolert, la han til.
Dr. Wang sa at teknikken kunne brukes automatisk i stor skala. Han sa at en sosial medieplattform eller et nettsted kunne legge inn dette beskyttende laget i alle opplastede bilder. Dette kunne begrense spredningen av deepfakes, redusere tyveri av immaterielle rettigheter og hjelpe brukere med å opprettholde kontrollen over innholdet sitt.
Selv om metoden for øyeblikket bare kan brukes på bilder, planlegger forskerne å utvide den til tekst, musikk og video. Teknologien er fortsatt på teoretisk nivå og har bare vist seg å fungere effektivt i et laboratoriemiljø.
Det ovennevnte vitenskapelige arbeidet, med tittelen «Beviselig ulærbare dataeksempler», ble tildelt prisen for fremragende forskning på Network and Distributed Systems Security Symposium (NDSS) i 2025.
Kilde: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Kommentar (0)