Teknoloji tabanlı dolandırıcılıkların sayısı artmaya devam ederken, deepfake artık büyük bir endişe kaynağı haline geliyor.
Siber suçluların sıklıkla faaliyet gösterdiği Darknet forumlarında araştırma yapan güvenlik uzmanları, Deepfake'i dolandırıcılık amacıyla kullanan suçlu sayısının çok fazla olduğunu ve talebin şu anda piyasada bulunan Deepfake yazılımlarının arzını çok aştığını tespit etti.
Kaspersky uzmanları, talebin arzı aşmasıyla birlikte Deepfake dolandırıcılıklarının daha çeşitli ve karmaşık biçimlerde artacağını öngörüyor: Yüksek kaliteli taklit videolar sunmaktan, ünlülerin fotoğraflarını sahte sosyal medya canlı yayınlarında kullanmaya ve kurbanın kendilerine gönderdiği tutarın iki katını ödemeyi vaat etmeye kadar.
Regula bilgi referans sistemine göre dünya genelindeki işletmelerin %37'si Deepfake ses dolandırıcılığıyla karşılaşmış, %29'u ise Deepfake videoların kurbanı olmuş.
Bu teknoloji, siber suçluların sıklıkla sahte görüntülü görüşmeler yaparak kişilerin akrabalarından ve arkadaşlarından borç para almak için sahte kimlikler kullandığı Vietnam'da siber güvenlik için bir tehdit haline geldi.
Deepfake görüntülü görüşmeleri yalnızca bir dakika sürebiliyor ve bu da mağdurların gerçek ile sahteyi ayırt etmesini zorlaştırıyor.
Deepfake, giderek karmaşık çevrimiçi dolandırıcılıkların bir "kabusu" haline geliyor.
" Deepfake, kadınlar ve toplum için bir kabusa dönüştü. Siber suçlular, kurbanların yüzlerini pornografik fotoğraf ve videolara yerleştirmek ve propaganda kampanyalarında kullanmak için yapay zekâyı (YZ) kullanıyor.
Kaspersky Vietnam Bölge Direktörü Vo Duong Tu Diem, "Bu formlar, yanlış bilgi yayarak kamuoyunu yönlendirmeyi, hatta kuruluşların veya kişilerin itibarını zedelemeyi amaçlıyor " dedi.
Yapay zeka, suçlular tarafından kötü amaçlarla kullanılsa da bireyler ve işletmeler, Deepfake'leri tespit etmek için yapay zekayı kullanabilir ve bu sayede dolandırıcılıkların başarı olasılığı azalabilir.
Buna göre kullanıcılar, yapay zeka tarafından üretilen içerik tespit yazılımları (görüntülerin/videoların/seslerin düzenlenme düzeyini analiz etmek ve belirlemek için gelişmiş algoritmalar kullanan) kullanmak gibi dolandırıcılıklardan korunmak için bazı faydalı çözümlere sahip olacaklar.
Deepfake videoları için, uyumsuz ağız hareketleri ve konuşmaları tespit edebilen araçlar mevcuttur. Hatta bazı programlar, kalp kan pompaladığında insan damarlarının renk değiştirmesi nedeniyle video çözünürlüğünü analiz ederek cilt altındaki anormal kan akışını tespit edebilecek kadar güçlüdür.
Ayrıca, görsellerde, videolarda vb. kimlik işareti görevi gören ve yazarların yapay zeka ürünlerinin telif haklarını korumalarına yardımcı olan bir filigran da bulunmaktadır. Bu özellik, yapay zeka üreten platformun kökenini takip etmeye yardımcı olduğu için Deepfake'e karşı bir silah haline gelebilir. Belirli bir teknoloji bilgisine sahip kullanıcılar, orijinal verilerin yapay zeka "elleri" tarafından nasıl düzenlendiğini karşılaştırmak için içeriğin kökenini takip etmenin bir yolunu bulabilirler.
Günümüzde bazı yeni teknolojiler, videoya belirli zaman aralıklarında karma değerleri eklemek için şifreleme algoritmaları kullanmaktadır. Video düzenlenmişse, karma değeri değişecek ve kullanıcılar içeriğin değiştirilip değiştirilmediğini buradan doğrulayabilecektir.
Geçmişte videolardaki anomalileri, örneğin renk sapmalarını, doğal olmayan kas hareketlerini, göz hareketlerini bulmaya yönelik bazı eğitimler vardı. Ancak yapay zeka giderek daha akıllı hale geldiği için bu değerler her zaman doğru sonuçlar vermiyor.
Videoların güvenilirliğini doğrulama süreci artık çıplak gözle yapılan bir işlem değil, sahte içerikleri önleme ve tespit etme amacıyla oluşturulmuş teknolojik araçlar gerektiriyor.
Khanh Linh
[reklam_2]
Kaynak
Yorum (0)