ChatGPT gibi yapay zekâ (YZ) sistemleri 2023'ün başından beri küresel bir sansasyon yaratıyor, ancak bu yapay zekâ her zaman olumlu amaçlar için kullanılmıyor. Son zamanlarda bir güvenlik uzmanı, test sırasında ChatGPT'den kötü amaçlı kod oluşturmasını istemenin bir yolunu buldu.
Forcepoint'te güvenlik uzmanı olan Aaron Mulgrew, OpenAI'nin dil sohbet robotunu kullanarak kötü amaçlı yazılım yazmanın riskinden bahsetti. ChatGPT, kullanıcıların yapay zekadan kötü amaçlı yazılım tasarlamasını istemesini engellemek için tasarlanmış olsa da Aaron, yapay zekanın satır satır programlama kodu yazması için komutlar oluşturarak bir açık buldu. İkisini bir araya getirdiğinde, Aaron elinde tespit edilemeyen bir veri hırsızlığı yürütme aracı olduğunu fark etti; o kadar gelişmiş ki, günümüzün en gelişmiş kötü amaçlı yazılımlarıyla karşılaştırılabilirdi.
ChatGPT tarafından oluşturulan her bir komut satırı birleştirildiğinde karmaşık bir kötü amaçlı yazılıma dönüşebilir.
Mulgrew'un keşfi, yapay zekanın, bir bilgisayar korsanı grubuna veya aracın yaratıcısının tek bir satır kod yazmasına gerek kalmadan tehlikeli kötü amaçlı yazılımlar oluşturmak için kullanılabileceği potansiyeline dair bir uyarı niteliğinde.
Mulgrew'un yazılımı bir ekran koruyucu uygulaması kılığında olsa da, Windows tabanlı cihazlarda otomatik olarak etkinleşebiliyor. İşletim sistemine girdikten sonra, kötü amaçlı yazılım Word metin düzenleyicileri, resim dosyaları ve PDF'ler de dahil olmak üzere her dosyaya "sızarak" çalabileceği verileri arıyor.
Program, ihtiyaç duyduğu bilgileri elde ettiğinde, bilgileri parçalara ayırır ve bilgisayardaki görüntü dosyalarına ekler. Tespit edilmekten kaçınmak için görüntüler Google Drive'daki bir klasöre yüklenir. Kötü amaçlı yazılımın bu kadar güçlü olmasının nedeni, Mulgrew'un ChatGPT'ye girilen basit komutlarla tespit edilmekten kaçınmak için özelliklerini ayarlayıp geliştirebilmesidir.
Bu, güvenlik uzmanları tarafından yapılan özel bir test olmasına ve test kapsamı dışında herhangi bir saldırı gerçekleştirilmemesine rağmen, siber güvenlik topluluğu ChatGPT kullanan faaliyetlerin tehlikesinin hala farkında. Mulgrew, programlama konusunda fazla deneyimi olmadığını iddia etse de, OpenAI'nin yapay zekası, testini engelleyecek kadar güçlü ve akıllı değil.
[reklam_2]
Kaynak bağlantısı
Yorum (0)