Avustralyalı bilim insanları, Yapay Zeka (YZ) sistemlerinin görsellerden, sanat eserlerinden ve diğer çevrimiçi içeriklerden yasa dışı şekilde öğrenmesini önleyebilecek yeni bir teknik geliştirdi.
Avustralya Ulusal Bilim Ajansı'na (CSIRO) göre, bu teknik, görüntülerin içeriğini yapay zeka modelleri tarafından okunamayacak şekilde gizlice değiştirirken, insan gözü için aynı kalıyor. Bu proje, CSIRO tarafından Avustralya Siber Güvenlik Kooperatif Araştırma Merkezi (CSCRC) ve Chicago Üniversitesi (ABD) iş birliğiyle geliştirildi.
Yazarlar, bu atılımın sanatçıların, kuruluşların ve sosyal medya kullanıcılarının, çalışmalarını ve kişisel verilerini yapay zeka sistemlerini eğitmek veya deepfake'ler (yapay zeka tarafından oluşturulan inanılmaz derecede gerçekçi videolar , görseller veya sesler) oluşturmak için kullanılmasını engellemelerine yardımcı olabileceğini söylüyor. Örneğin, kullanıcılar, paylaşmadan önce görsellere otomatik olarak koruyucu bir katman uygulayarak yapay zekanın yüz hatlarını öğrenerek deepfake oluşturmasını engelleyebilir.
Benzer şekilde savunma örgütleri hassas uydu görüntülerini veya siber tehditlerle ilgili verileri koruyabilir.
CSIRO'da görevli bilim insanı Dr. Derui Wang'a göre bu yöntem, yapay zeka modellerinin söz konusu içerikten öğrenmesini engellemek için güçlü bir matematiksel temel kullanıyor; yani bu teknik, yapay zeka için veriyi, mahremiyet ve telif hakkını koruyacak bir düzeyde "öğrenilemez" hale getirirken, aynı zamanda insanların kullanımına da uygun hale getiriyor.
Yapay zekanın uyum sağlamaya çalışması veya yeniden eğitilmesi durumunda bile bu korumanın geçerliliğini koruduğunu sözlerine ekledi.
Dr. Wang, tekniğin otomatik olarak ve geniş ölçekte uygulanabileceğini söyledi. Bir sosyal medya platformu veya sitesinin, yüklenen tüm görsellere bu koruyucu katmanı yerleştirebileceğini belirtti. Bu, deepfake içeriklerin yayılmasını önleyebilir, fikri mülkiyet hırsızlığını azaltabilir ve kullanıcıların içerikleri üzerinde kontrol sahibi olmalarına yardımcı olabilir.
Yöntem şu anda yalnızca görseller için geçerli olsa da, araştırmacılar bunu metin, müzik ve videoya genişletmeyi planlıyor. Teknoloji henüz teorik aşamada ve yalnızca laboratuvar ortamında etkili bir şekilde çalıştığı gösterildi.
“Kanıtlanabilir Öğrenilemez Veri Örnekleri” başlıklı yukarıdaki bilimsel çalışma, 2025 Ağ ve Dağıtık Sistemler Güvenlik Sempozyumu'nda (NDSS) Üstün Araştırma Ödülü'ne layık görüldü.
Kaynak: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
Yorum (0)