Ausztrál tudósok kifejlesztettek egy új technikát, amely megakadályozhatja, hogy a mesterséges intelligencia (MI) rendszerek illegálisan tanuljanak képekből, műalkotásokból és más online tartalmakból.
Az ausztrál nemzeti tudományos ügynökség (CSIRO) által kifejlesztett technika finoman módosítja a képek tartalmát, hogy azok olvashatatlanok legyenek a mesterséges intelligencia modelljei számára, miközben az emberi szem számára változatlanok maradnak – derül ki a CSIRO által az ausztrál Kiberbiztonsági Együttműködési Kutatóközponttal (CSCRC) és a Chicagói Egyetemmel együttműködve kidolgozott projektből.
A szerzők szerint az áttörés segíthet a művészeknek, szervezeteknek és a közösségi média felhasználóinak megvédeni munkájukat és személyes adataikat attól, hogy azokat mesterséges intelligencia rendszereinek betanítására vagy deepfake-ek – mesterséges intelligencia által létrehozott, rendkívül realisztikus hamis videók , képek vagy hanganyagok – készítésére használják fel. Például a felhasználók automatikusan védőréteget alkalmazhatnak a képekre a közzététel előtt, megakadályozva, hogy a mesterséges intelligencia megtanulja az arcvonásokat a deepfake-ek létrehozásához.
Hasonlóképpen, a védelmi szervezetek védhetik az érzékeny műholdképeket vagy a kiberfenyegetésekkel kapcsolatos adatokat.
Dr. Derui Wang, a CSIRO tudósa szerint ez a módszer erős matematikai alapot használ annak biztosítására, hogy a mesterséges intelligencia modelljei ne tudjanak tanulni ebből a tartalomból, vagyis ez a technika olyan mértékben teszi „tanulhatatlanná” az adatokat a mesterséges intelligencia számára, hogy az védje a magánéletet és a szerzői jogokat, miközben továbbra is hasznosak maradnak az emberek számára.
Ez a védelem akkor is érvényben marad, ha a mesterséges intelligencia megpróbál alkalmazkodni, vagy átképzésre kerül – tette hozzá.
Dr. Wang szerint a technika automatikusan, nagy mennyiségben is alkalmazható. Elmondása szerint egy közösségi média platform vagy weboldal beágyazhatja ezt a védőréteget az összes feltöltött képbe. Ez korlátozhatja a deepfake-ek elterjedését, csökkentheti a szellemi tulajdon ellopását, és segíthet a felhasználóknak abban, hogy megőrizzék a tartalmuk feletti ellenőrzést.
Bár a módszer jelenleg csak képekre alkalmazható, a kutatók azt tervezik, hogy kiterjesztik szövegre, zenére és videóra is. A technológia még mindig elméleti szakaszban van, és csak laboratóriumi környezetben bizonyították hatékony működését.
A fenti, „Bizonyíthatóan tanulhatatlan adatpéldák” című tudományos munka Kiemelkedő Kutatási Díjjal tüntették ki a 2025-ös Hálózati és Elosztott Rendszerek Biztonsági Szimpóziumán (NDSS)./.
Forrás: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Hozzászólás (0)