Ilmuwan Australia telah mengembangkan teknik baru yang dapat mencegah sistem Kecerdasan Buatan (AI) belajar secara ilegal dari gambar, karya seni, dan konten daring lainnya.
Teknik ini, yang dikembangkan oleh badan sains nasional Australia (CSIRO), secara halus mengubah konten gambar agar tidak dapat dibaca oleh model AI namun tetap tidak berubah oleh mata manusia, menurut sebuah proyek yang dikembangkan oleh CSIRO bekerja sama dengan Pusat Penelitian Koperasi Keamanan Siber Australia (CSCRC) dan Universitas Chicago.
Para penulis mengatakan terobosan ini dapat membantu seniman, organisasi, dan pengguna media sosial melindungi karya dan data pribadi mereka agar tidak digunakan untuk melatih sistem AI atau membuat deepfake – video , gambar, atau audio palsu yang sangat realistis yang dibuat oleh AI. Misalnya, pengguna dapat secara otomatis menerapkan lapisan pelindung pada gambar sebelum mengunggahnya, mencegah AI mempelajari fitur wajah untuk membuat deepfake.
Demikian pula, organisasi pertahanan mungkin melindungi citra satelit atau data sensitif tentang ancaman dunia maya.
Menurut Dr. Derui Wang, seorang ilmuwan di CSIRO, metode ini menggunakan fondasi matematika yang kuat untuk memastikan bahwa model AI tidak dapat belajar dari konten tersebut, atau dengan kata lain, teknik ini membuat data "tidak dapat dipelajari" oleh AI hingga tingkat yang melindungi privasi dan hak cipta, namun tetap mempertahankan kegunaannya bagi manusia.
Perlindungan ini tetap berlaku bahkan jika AI mencoba beradaptasi atau dilatih ulang, tambahnya.
Dr. Wang mengatakan teknik ini dapat diterapkan secara otomatis dalam skala besar. Ia mengatakan platform media sosial atau situs web dapat menanamkan lapisan pelindung ini ke dalam semua gambar yang diunggah. Hal ini dapat membatasi penyebaran deepfake, mengurangi pencurian kekayaan intelektual, dan membantu pengguna mempertahankan kendali atas konten mereka.
Meskipun metode ini saat ini hanya dapat diterapkan pada gambar, para peneliti berencana untuk memperluasnya ke teks, musik , dan video. Teknologi ini masih dalam tahap teoretis dan baru terbukti efektif dalam uji coba laboratorium.
Karya ilmiah di atas, berjudul “Contoh Data yang Terbukti Tidak Dapat Dipelajari”, dianugerahi Penghargaan Penelitian Luar Biasa di Simposium Keamanan Sistem Jaringan dan Terdistribusi (NDSS) 2025.
Source: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Komentar (0)