Ilmuwan Australia telah mengembangkan teknik baru yang dapat mencegah sistem Kecerdasan Buatan (AI) belajar secara ilegal dari gambar, karya seni, dan konten daring lainnya.
Menurut badan sains nasional Australia (CSIRO), teknik ini secara halus mengubah isi gambar agar tidak terbaca oleh model AI, namun tetap utuh bagi mata manusia. Proyek ini dikembangkan oleh CSIRO, bekerja sama dengan Pusat Penelitian Kerja Sama Keamanan Siber Australia (CSCRC) dan Universitas Chicago (AS).
Para penulis mengatakan terobosan ini dapat membantu seniman, organisasi, dan pengguna media sosial melindungi karya dan data pribadi mereka agar tidak digunakan untuk melatih sistem AI atau membuat deepfake— video , gambar, atau audio yang sangat realistis yang dibuat oleh AI. Misalnya, pengguna dapat secara otomatis menerapkan lapisan pelindung pada gambar sebelum mengunggahnya, mencegah AI mempelajari fitur wajah untuk membuat deepfake.
Demikian pula, organisasi pertahanan mungkin melindungi citra satelit atau data sensitif tentang ancaman dunia maya.
Menurut Dr Derui Wang, seorang ilmuwan di CSIRO, metode ini menggunakan fondasi matematika yang kuat untuk memastikan bahwa model AI tidak dapat belajar dari konten tersebut, atau dengan kata lain, teknik ini membuat data "tidak dapat dipelajari" untuk AI hingga tingkat yang melindungi privasi dan hak cipta, namun tetap mempertahankan kegunaannya bagi manusia.
Perlindungan ini tetap berlaku bahkan jika AI mencoba beradaptasi atau dilatih ulang, tambahnya.
Dr. Wang mengatakan teknik ini dapat diterapkan secara otomatis dalam skala besar. Ia mengatakan platform atau situs media sosial dapat menanamkan lapisan pelindung ini ke dalam semua gambar yang diunggah. Hal ini dapat menghambat penyebaran deepfake, mengurangi pencurian kekayaan intelektual, dan membantu pengguna mempertahankan kendali atas konten mereka.
Meskipun metode ini saat ini hanya dapat diterapkan pada gambar, para peneliti berencana untuk memperluasnya ke teks, musik , dan video. Teknologi ini masih dalam tahap teoretis dan baru terbukti efektif dalam uji coba laboratorium.
Karya ilmiah di atas, berjudul “Contoh Data yang Terbukti Tidak Dapat Dipelajari”, dianugerahi Penghargaan Penelitian Luar Biasa di Simposium Keamanan Sistem Jaringan dan Terdistribusi (NDSS) 2025.
Source: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Komentar (0)