Karanlık yapay zeka, güvenlik standartlarının dışında faaliyet gösterir ve genellikle yakın gözetim olmaksızın dolandırıcılık, manipülasyon, siber saldırılar veya veri istismarı gibi davranışlara olanak tanır.
Kaspersky'nin Orta Doğu, Türkiye, Afrika ve Asya Pasifik Bölgesi Küresel Araştırma ve Analiz Ekibi (GReAT) Başkanı Sergey Lozhkin, “Kötü niyetli aktörler, saldırı yeteneklerini artırmak için yapay zekayı da kullanıyor. Günümüzde yapay zekanın en yaygın kötüye kullanımı, Kara Şapka GPT modellerinin ortaya çıkmasıdır. Bunlar, kötü amaçlı yazılım oluşturma, kimlik avı e-postaları hazırlama, ses ve deepfake videoları üretme gibi yasa dışı amaçlara hizmet etmek üzere özel olarak geliştirilmiş veya değiştirilmiş yapay zeka modelleridir…” şeklinde açıklama yaptı.
Kara Şapka GPT'leri tamamen özel veya yarı özel yapay zeka modelleri olarak var olabilirler. WormGPT, DarkBard, FraudGPT ve Xanthorox gibi bazı önemli örnekler, siber suç, dolandırıcılık ve kötü amaçlı otomasyon faaliyetlerine hizmet etmek üzere tasarlanmıştır.
Lozhkin, Kaspersky uzmanlarının daha da endişe verici bir eğilim gözlemlediğini açıkladı: Devlet veya hükümet destekli siber saldırı grupları, saldırı kampanyalarında büyük dil modellerinden (LLM) yararlanmaya başlıyor.
Lozhkin, “OpenAI kısa süre önce, yapay zeka araçlarını kullanan 20'den fazla gizli etki kampanyasını ve siber saldırıyı engellediğini duyurdu. Yapay zekayı silah olarak kullanan ve hem kamu hem de özel ekosistemlerde tehdit oluşturan giderek daha karmaşık saldırganlarla karşı karşıya kalacağız. Bu, tüm kuruluşların hazırlıklı olması gereken endişe verici bir trend,” şeklinde konuştu.
OpenAI raporuna göre, kötü niyetli aktörler, kurbanları aldatmak ve geleneksel güvenlik katmanlarını aşmak için büyük ölçekli makine öğrenimi modellerinin (LLM) yeteneklerinden yararlanmaya başladı. İkna edici sahte mesajlar oluşturabiliyor, kurbanlara toplu mesajlar gönderebiliyor ve birden fazla dilde içerik üretebiliyorlar.
Kaspersky uzmanları, karanlık yapay zeka tehditlerine karşı savunmayı güçlendirmek için şunları önermektedir: Yapay zeka tarafından üretilen kötü amaçlı yazılımları tespit etmek ve tedarik zinciri risklerini kontrol etmek için Kaspersky Next gibi yeni nesil güvenlik çözümlerini kullanmak; yapay zeka güdümlü güvenlik açığı istismarını izlemek için gerçek zamanlı tehdit istihbaratı araçlarını uygulamak; gölge yapay zeka ve veri sızıntısı risklerini sınırlamak için erişim kontrolünü ve personel eğitimini güçlendirmek; ve tehditleri izlemek ve olaylara hızlı bir şekilde müdahale etmek için bir Güvenlik Operasyon Merkezi (SOC) kurmak.
Kaynak: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Yorum (0)