Avustralyalı bilim insanları, Yapay Zeka (YZ) sistemlerinin görsellerden, sanat eserlerinden ve diğer çevrimiçi içeriklerden yasa dışı şekilde öğrenmesini engelleyebilecek yeni bir teknik geliştirdi.
Avustralya'nın ulusal bilim ajansı CSIRO tarafından geliştirilen teknik, görüntülerin içeriğini yapay zeka modelleri için okunamaz hale getirirken, insan gözü için aynı kalıyor. CSIRO'nun Avustralya Siber Güvenlik Kooperatif Araştırma Merkezi (CSCRC) ve Chicago Üniversitesi ile iş birliği içinde geliştirdiği projeye göre, bu teknik, insan gözü için aynı kalıyor.
Yazarlar, bu atılımın sanatçıların, kuruluşların ve sosyal medya kullanıcılarının, çalışmalarını ve kişisel verilerini yapay zeka sistemlerini eğitmek veya yapay zeka tarafından oluşturulan son derece gerçekçi sahte videolar , görseller veya sesler olan deepfake'ler oluşturmak için kullanılmasını önlemelerine yardımcı olabileceğini belirtiyor. Örneğin, kullanıcılar, paylaşmadan önce görsellere otomatik olarak koruyucu bir katman uygulayarak yapay zekanın yüz hatlarını öğrenerek deepfake oluşturmasını engelleyebilir.
Benzer şekilde savunma örgütleri hassas uydu görüntülerini veya siber tehditlerle ilgili verileri koruyabilir.
CSIRO'da görevli bilim insanı Dr. Derui Wang'a göre bu yöntem, yapay zeka modellerinin söz konusu içerikten öğrenmesini engellemek için güçlü bir matematiksel temel kullanıyor; yani bu teknik, veriyi yapay zeka için "öğrenilemez" hale getiriyor ve bu sayede mahremiyet ve telif hakkını korurken, aynı zamanda insanların kullanımına da uygun hale geliyor.
Yapay zekanın uyum sağlamaya çalışması veya yeniden eğitilmesi durumunda bile bu korumanın geçerliliğini koruduğunu sözlerine ekledi.
Dr. Wang, tekniğin büyük ölçekte otomatik olarak uygulanabileceğini söyledi. Bir sosyal medya platformu veya web sitesinin, yüklenen tüm görsellere bu koruyucu katmanı yerleştirebileceğini belirtti. Bu, deepfake'lerin yayılmasını sınırlayabilir, fikri mülkiyet hırsızlığını azaltabilir ve kullanıcıların içerikleri üzerinde kontrol sahibi olmalarına yardımcı olabilir.
Yöntem şu anda yalnızca görseller için geçerli olsa da, araştırmacılar bunu metin, müzik ve videoya genişletmeyi planlıyor. Teknoloji henüz teorik aşamada ve yalnızca laboratuvar ortamında etkili bir şekilde çalıştığı gösterildi.
“Kanıtlanabilir Öğrenilemez Veri Örnekleri” başlıklı yukarıdaki bilimsel çalışma, 2025 Ağ ve Dağıtık Sistemler Güvenlik Sempozyumu'nda (NDSS) Üstün Araştırma Ödülü'ne layık görüldü.
Kaynak: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp






Yorum (0)