ChatGPT gibi yapay zekâ (YZ) uygulamaları 2023 yılının başından beri küresel bir sansasyon yarattı, ancak her zaman olumlu amaçlar için kullanılmıyor. Son zamanlarda, bir güvenlik uzmanı, test sırasında ChatGPT'ye kötü amaçlı kod üretme talimatı vermenin bir yolunu keşfetti.
Forcepoint'te güvenlik uzmanı olan Aaron Mulgrew, OpenAI'nin iki dilli sohbet robotunu kullanarak kötü amaçlı kod yazmanın risklerini paylaştı. ChatGPT, kullanıcıların yapay zekadan kötü amaçlı yazılım tasarlamasını istemesini engellemek üzere tasarlanmış olsa da, Aaron yapay zekanın satır satır kod yazması için komutlar (istemler) oluşturarak bir güvenlik açığı buldu. Aaron, bu iki yöntemi bir araya getirdiğinde, elinde tespit edilemeyen, veri çalma amaçlı bir yürütme aracı olduğunu fark etti; bu araç, şu anda mevcut olan en gelişmiş kötü amaçlı yazılımlarla bile rekabet edebilecek kadar karmaşıktı.
ChatGPT tarafından üretilen her bir kod satırı, bir araya geldiğinde karmaşık bir kötü amaçlı yazılıma dönüşebilir.
Mulgrew'in keşfi, yapay zekanın, herhangi bir siber saldırı grubuna ihtiyaç duymadan ve yaratıcıların tek bir satır kod bile yazmasına gerek kalmadan tehlikeli kötü amaçlı yazılımlar oluşturmak için kullanılma potansiyeli konusunda bir uyarı niteliğindedir.
Mulgrew'in kötü amaçlı yazılımı masaüstü uygulaması kılığında olsa da, Windows cihazlarda otomatik olarak etkinleşebiliyor. İşletim sistemine girdikten sonra, kötü amaçlı yazılım Word belgeleri, resim dosyaları ve PDF'ler de dahil olmak üzere tüm dosyalara "sızarak" çalınacak veri arıyor.
Program, ihtiyaç duyduğu bilgileri elde ettikten sonra bunları parçalara ayırır ve bilgisayardaki görüntü dosyalarına yerleştirir. Tespit edilmekten kaçınmak için bu görüntüler Google Drive bulut depolama alanındaki bir klasöre yüklenir. Mulgrew, ChatGPT'ye girilen basit komutlar aracılığıyla tespit edilmekten kaçınmak için özelliklerini ince ayar yapıp geliştirebildiği için kötü amaçlı yazılım inanılmaz derecede güçlü hale gelir.
Bu durum, bir güvenlik uzmanı tarafından yapılan özel bir testin sonucu olmasına ve test alanı dışında herhangi bir saldırı gerçekleştirilmemesine rağmen, siber güvenlik uzmanları ChatGPT kullanan faaliyetlerin tehlikesini yine de kabul etti. Mulgrew, kendisinin programlama konusunda fazla deneyimi olmadığını, ancak OpenAI'nin yapay zekasının testini durduracak kadar güçlü veya zeki olmadığını belirtti.
[reklam_2]
Kaynak bağlantısı






Yorum (0)