Australští vědci vyvinuli novou techniku, která by mohla zabránit systémům umělé inteligence (AI) v nelegálním učení se z obrázků, uměleckých děl a dalšího online obsahu.
Technika vyvinutá australskou národní vědeckou agenturou (CSIRO) nenápadně mění obsah obrázků tak, aby byly pro modely umělé inteligence nečitelné, zatímco pro lidské oko zůstávají nezměněné. Uvádí se v projektu, který vyvinula CSIRO ve spolupráci s australským Centrem pro výzkum kybernetické bezpečnosti (CSCRC) a Chicagskou univerzitou.
Autoři tvrdí, že tento průlom by mohl pomoci umělcům, organizacím a uživatelům sociálních médií chránit jejich pracovní a osobní data před použitím k trénování systémů umělé inteligence nebo k vytváření deepfaků – vysoce realistických falešných videí , obrázků nebo zvuku vytvořených umělou inteligencí. Uživatelé by například mohli před zveřejněním automaticky aplikovat na obrázky ochrannou vrstvu, která by zabránila umělé inteligenci v učení se rysů obličeje pro vytváření deepfaků.
Podobně by obranné organizace mohly chránit citlivé satelitní snímky nebo data o kybernetických hrozbách.
Podle Dr. Derui Wanga, vědce z CSIRO, tato metoda využívá silný matematický základ, který zajišťuje, že se modely umělé inteligence nemohou z tohoto obsahu učit, nebo jinými slovy, tato technika činí data pro umělou inteligenci „nenaučitelnými“ do té míry, že chrání soukromí a autorská práva a zároveň si zachovávají svou užitečnost pro lidi.
Tato ochrana zůstává v platnosti, i když se umělá inteligence pokusí adaptovat nebo je přeškolena, dodal.
Dr. Wang uvedl, že tato technika by se dala automaticky aplikovat ve velkém měřítku. Dodal, že platforma sociálních médií nebo webová stránka by mohla tuto ochrannou vrstvu vložit do všech nahraných obrázků. To by mohlo omezit šíření deepfakes, snížit krádeže duševního vlastnictví a pomoci uživatelům udržet si kontrolu nad svým obsahem.
I když je metoda v současné době použitelná pouze pro obrázky, vědci plánují její rozšíření na text, hudbu a video. Technologie je stále v teoretické fázi a její efektivní fungování bylo prokázáno pouze v laboratorním prostředí.
Výše uvedená vědecká práce s názvem „Prokazatelně neučitelná data“ získala cenu za mimořádný výzkum na sympoziu Network and Distributed Systems Security Symposium (NDSS) v roce 2025.
Zdroj: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Komentář (0)