Para saintis Australia telah membangunkan teknik baharu yang boleh menghalang sistem Kecerdasan Buatan (AI) daripada belajar secara haram daripada imej, karya seni dan kandungan dalam talian yang lain.
Menurut agensi sains kebangsaan Australia (CSIRO), teknik itu secara halus mengubah kandungan imej untuk menjadikannya tidak boleh dibaca oleh model AI, sambil kekal tidak diubah pada mata manusia. Ini adalah projek yang dibangunkan oleh CSIRO, dengan kerjasama Pusat Penyelidikan Koperasi Keselamatan Siber Australia (CSCRC) dan Universiti Chicago (AS).
Penulis berkata, penemuan itu boleh membantu artis, organisasi dan pengguna media sosial melindungi kerja dan data peribadi mereka daripada digunakan untuk melatih sistem AI atau mencipta deepfakes — video , imej atau audio yang sangat realistik yang dicipta oleh AI. Sebagai contoh, pengguna boleh menggunakan lapisan pelindung secara automatik pada imej sebelum menyiarkan, menghalang AI daripada mempelajari ciri muka untuk mencipta deepfakes.
Begitu juga, organisasi pertahanan mungkin melindungi imejan satelit sensitif atau data tentang ancaman siber.
Menurut Dr Derui Wang, seorang saintis di CSIRO, kaedah ini menggunakan asas matematik yang kukuh untuk memastikan model AI tidak dapat belajar daripada kandungan itu, atau dengan kata lain, teknik ini menjadikan data "tidak boleh dipelajari" untuk AI ke tahap yang melindungi privasi dan hak cipta, sambil mengekalkan kegunaannya kepada manusia.
Perlindungan ini kekal berkuat kuasa walaupun AI cuba menyesuaikan diri atau dilatih semula, tambahnya.
Dr Wang berkata teknik itu boleh digunakan secara automatik pada skala. Beliau berkata platform atau tapak media sosial boleh membenamkan lapisan pelindung ini ke dalam semua imej yang dimuat naik. Ini boleh membendung penyebaran deepfakes, mengurangkan kecurian harta intelek dan membantu pengguna mengekalkan kawalan ke atas kandungan mereka.
Walaupun kaedah itu pada masa ini hanya terpakai pada imej, penyelidik merancang untuk mengembangkannya kepada teks, muzik dan video. Teknologi ini masih dalam peringkat teori dan hanya terbukti berfungsi dengan berkesan dalam persekitaran makmal.
Kerja saintifik di atas, bertajuk "Contoh Data Yang Tidak Boleh Dibuktikan", telah dianugerahkan Anugerah Penyelidikan Cemerlang di Simposium Keselamatan Rangkaian dan Sistem Teragih (NDSS) 2025./.
Sumber: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Komen (0)