Ausztrál tudósok kifejlesztettek egy új technikát, amely megakadályozhatja, hogy a mesterséges intelligencia (MI) rendszerek illegálisan tanuljanak képekből, műalkotásokból és más online tartalmakból.
Az ausztrál nemzeti tudományos ügynökség (CSIRO) szerint a technika finoman megváltoztatja a képek tartalmát, hogy azok olvashatatlanok legyenek a mesterséges intelligencia modelljei számára, miközben az emberi szem számára változatlanok maradnak. Ez egy olyan projekt, amelyet a CSIRO fejlesztett ki az ausztrál Kiberbiztonsági Együttműködési Kutatóközponttal (CSCRC) és a Chicagói Egyetemmel (USA) együttműködve.
A szerzők szerint az áttörés segíthet a művészeknek, szervezeteknek és a közösségi média felhasználóinak megvédeni munkájukat és személyes adataikat attól, hogy azokat mesterséges intelligencia által létrehozott rendszerek betanítására vagy deepfake-ek – hihetetlenül realisztikus, mesterséges intelligencia által létrehozott videók , képek vagy hanganyagok – készítésére használják fel. Például a felhasználók automatikusan védőréteget alkalmazhatnak a képekre a közzététel előtt, megakadályozva, hogy a mesterséges intelligencia megtanulja az arcvonásokat a deepfake-ek létrehozásához.
Hasonlóképpen, a védelmi szervezetek védhetik az érzékeny műholdképeket vagy a kiberfenyegetésekkel kapcsolatos adatokat.
Dr. Derui Wang, a CSIRO tudósa szerint ez a módszer erős matematikai alapot használ annak biztosítására, hogy a mesterséges intelligencia modelljei ne tudjanak tanulni ebből a tartalomból, vagyis ez a technika „megtanulhatatlanná” teszi az adatokat a mesterséges intelligencia számára olyan szinten, amely védi a magánéletet és a szerzői jogokat, miközben továbbra is hasznosak maradnak az emberek számára.
Ez a védelem akkor is érvényben marad, ha a mesterséges intelligencia megpróbál alkalmazkodni, vagy átképzésre kerül – tette hozzá.
Dr. Wang szerint a technika automatikusan, nagy mennyiségben is alkalmazható. Elmondása szerint egy közösségi média platform vagy oldal beépítheti ezt a védőréteget az összes feltöltött képbe. Ez megfékezheti a deepfake-ek elterjedését, csökkentheti a szellemi tulajdon ellopását, és segíthet a felhasználóknak megtartani a tartalmaik feletti ellenőrzést.
Bár a módszer jelenleg csak képekre alkalmazható, a kutatók azt tervezik, hogy kiterjesztik szövegre, zenére és videóra is. A technológia még mindig elméleti szakaszban van, és csak laboratóriumi környezetben bizonyították hatékony működését.
A fenti, „Bizonyíthatóan tanulhatatlan adatpéldák” című tudományos munka Kiemelkedő Kutatási Díjjal tüntették ki a 2025-ös Hálózati és Elosztott Rendszerek Biztonsági Szimpóziumán (NDSS)./.
Forrás: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Hozzászólás (0)