Siber saldırılar ve dolandırıcılık yapmak için bilgisayar korsanlarının yapay zekayı "silahlaştırması" eğilimi hakkında ne düşünüyorsunuz?
Dr. Nguyen Tuan Khang: IBM'in 2024 X-Force Tehdit İstihbarat Endeksi'ne göre, Vietnam'ın da aralarında bulunduğu Asya- Pasifik , 2023 yılında dünyada en çok siber saldırıya maruz kalacak bölge olacak. Bunlar arasında üretim, siber saldırılardan en çok etkilenen sektör.
Kötü niyetli kişilerin temel yöntemi, savunmasız kişileri hedef alan ve güvenlik açıklarından yararlanarak kötü amaçlı yazılım yüklemek olan kimlik avı saldırılarıdır. Ayrıca, 2024'te ortaya çıkan trend, yapay zekâ (YZ) içeren siber saldırılardır.
Wired'ın raporunda, birçok kötü niyetli kişinin saldırıları yönlendirmek, sahte sohbet robotları oluşturmak veya diğer insanların yüzlerini ve seslerini taklit eden Deepfake görüntüleri ve videoları oluşturmak için üretken yapay zekayı kullandığı belirtiliyor.
Ancak bu eğilimle birlikte, bilgi güvenliği sistemleri de WatsonX gibi yapay zeka özelliklerini entegre etmeye başlıyor. Yapay zekadan faydalanılabilir, ancak analiz, izleme, sayıları belirleme ve saldırı senaryolarını tahmin etmede insanların yerini alabilir, böylece savunma yeteneklerini iyileştirebilir ve bilgi güvenliği risklerini en aza indirebilir.
Deepfake dolandırıcılıkları giderek yaygınlaşıyor. Yapay zekanın hızla gelişmesiyle birlikte, bu saldırılar gelecekte ne kadar tehlikeli olacak?
Dr. Nguyen Tuan Khang: Deepfake, temel olarak bilgisayar korsanlarının sahte dijital kimlikler oluşturarak başkalarının kimliğine bürünmelerine yardımcı olan bir teknolojidir. Deepfake, giderek daha karmaşık hale geldiği için tehlikeli bir sorun olacaktır.
Deepfake ile mücadele etmek için ilk yapılması gereken, kişinin görüntüsünün veya sesinin yapay zeka tarafından oluşturulup oluşturulmadığını belirlemektir. Saldırganlar sürekli olarak yeni modeller geliştirdiğinden, Deepfake'leri anında tespit edebilecek evrensel bir araç şu anda mevcut değildir.
Deepfake tespitine ek olarak, bununla başa çıkmanın bir başka tekniği daha var: Davranış analizi için teknoloji kullanımı. Kurumsal ve ticari açıdan, bu iki tekniği birleştiren bir sistem geliştirmek gerekiyor.
Son zamanlarda, bilgisayar korsanlarının şirket sistemine gizlice kötü amaçlı yazılım yerleştirdiği siber saldırılar yaşandı. Bu kötü amaçlı yazılımlar pusuda bekleyip tüm faaliyetleri analiz ederek kötü niyetli amaçlar için sahte bir kimlik oluşturuyor. Deepfake teknolojisinin gelişmesi ve yapay zeka tarafından oluşturulan videolar oluşturma yeteneğiyle birlikte, bu tür saldırılar gelecekte çok daha tehlikeli hale gelecek.
Deepfake siber saldırılarının giderek artmasıyla yaşlıları, çocukları ve diğer savunmasız grupları dolandırıcılardan nasıl koruyabiliriz?
Dr. Nguyen Tuan Khang: Yaşlılar ve çocuklar, dolandırıcılar tarafından sosyal mühendislik adı verilen bir teknik kullanılarak sıklıkla saldırıya uğruyor. Bu terim, insan davranışlarını manipüle ederek gerçekleştirilen saldırıları tanımlıyor.
Bilgisayar korsanları artık yapay zekâyı veri toplama, veri madenciliği ve analiziyle birleştirerek dolandırılma olasılığı yüksek kişileri tespit edip saldırı yolları bulabiliyor. Toplumda farkındalık yaratmanın yanı sıra, kullanıcıların dolandırıldığı durumların da yaşanabileceğini kabul etmeli ve bunları tespit edip önlemek için teknolojiden yararlanmalıyız.
Geçtiğimiz günlerde bir banka çalışanı, para transferi için gelen yaşlı bir kadının dolandırıldığına dair işaretler olduğundan şüphelenmişti. Bu kişi daha sonra işlemi derhal durdurup yetkililere bildirdi. Bankaların bilişim sistemleri artık bu tür görevlerde insanların yerini alabilecek teknolojiye sahip.
Teknolojinin rolü, gönderenin gerçek kişi olduğu bilinse bile, işlemin başkası tarafından manipüle edildiğinden şüphelenilmesi durumunda sistemin transferi durdurmasıdır. Bu tür araçlara dolandırıcılık önleme sistemleri denir.
Yapay zekayı yönetmek ve yapay zeka araştırma, geliştirme ve kullanımını bir çerçeveye oturtmak için Vietnam'a yaptırım uygulanmasının zamanı geldi mi?
Dr. Nguyen Tuan Khang: Yapay zeka yönetimi konusu uzun süredir tartışılıyor, ancak hâlâ birçok tartışma mevcut. Örneğin, bölgemdeki otoparkta plakaları tanıyan bir yapay zeka sistemi var, ancak yine de hırsızlıklar yaşanıyordu. O dönemde, kimin hatası olduğu konusunda tartışmalar başlamıştı. Apartman sahibi mi, güvenlik görevlisi mi yoksa yapay zeka sistemi geliştiricisi mi sorumlu olmalı?
O zamandan beri bina, kurallarını değiştirerek sakinlerin kolaylık sağlamak için plakaları yapay zeka ile tanımayı tercih edebileceklerini, ancak riskleri kabul etmeleri gerektiğini belirtti. Kabul edenler otomatik kapıları kullanabilecek, kabul etmeyenler ise arabalarını eski yöntemle park etmek zorunda kalacak. Bu tür yaptırımlara ihtiyacımız var.
Benzer şekilde, IBM de bir zamanlar kanseri önlemeye yardımcı olmak için bir yapay zeka sistemi geliştirmişti. Sistem ilaç yazdığında, hasta ilacı aldığı halde kurtarılamadığında, bu doktorun mu yoksa yapay zekanın mı hatasıdır?
Yapay zeka düzenlemelerinin, yapay zeka uygulamaları geliştirirken nelerin yapılıp nelerin yapılamayacağını açıkça belirterek spesifik olması gerektiğini düşünüyorum. Dünyayı daha güvenli hale getirmek için yapabileceğimiz en temel düzenleme, büyük para transferlerinin biyometrik olarak tanınmasını zorunlu kılmaktır. Böyle bir durumda, kimlik bilgilerini kaybeden kişiler para kaybetmekten tamamen kurtulabilirler.
Teşekkür ederim.
[reklam_2]
Kaynak
Yorum (0)