BGR'ye göre, yeni bir araştırma raporu, yapay zekanın (AI) kendisini kullanarak Google'ın Gemini'si de dahil olmak üzere diğer gelişmiş AI modellerini hedef alan son derece etkili anlık enjeksiyon saldırılarını otomatik olarak oluşturmayı amaçlayan 'Eğlence Ayarı' adı verilen endişe verici bir tekniği yayınladı.
Bu yöntem, yapay zekayı 'kırmayı' her zamankinden daha hızlı, daha ucuz ve daha kolay hale getirerek, yapay zekayla ilgili siber güvenlik savaşında yeni bir tırmanışa işaret ediyor.
Kötü adamların yapay zekayı kırmak için yapay zekayı kullanmasının tehlikesi
Hızlı enjeksiyon, bir saldırganın bir yapay zeka modelinin giriş verilerine (örneğin, kaynak kodundaki yorumlar, web'deki gizli metinler aracılığıyla) kötü amaçlı talimatlar yerleştirdiği bir tekniktir. Amaç, yapay zekayı önceden programlanmış güvenlik kurallarını atlatması için "kandırmak" ve hassas verilerin sızdırılması, yanlış bilgi sağlanması veya diğer kötü amaçlı eylemler gerçekleştirilmesi gibi ciddi sonuçlara yol açmaktır.
Bilgisayar korsanları yapay zekaya saldırmak için yapay zekayı kullanıyor
FOTOĞRAF: LINKEDIN EKRAN GÖRÜNTÜSÜ
Daha önce, özellikle Gemini veya GPT-4 gibi 'kapalı' modellerde bu saldırıları başarıyla gerçekleştirmek, genellikle çok fazla karmaşık ve zaman alıcı manuel test gerektiriyordu.
Ancak Fun-Tuning, oyunu tamamen değiştirdi. Birçok üniversiteden araştırmacıdan oluşan bir ekip tarafından geliştirilen bu yöntem, Google'ın Gemini kullanıcılarına ücretsiz olarak sunduğu uygulama programlama arayüzünü (API) akıllıca kullanıyor.
Fun-Tuning, Gemini modelinin ayarlama sırasındaki ince tepkilerini (örneğin, verilerdeki hatalara nasıl tepki verdiğini) analiz ederek, kötü amaçlı bir komutu gizlemek için en etkili "önekleri" ve "sonekleri" otomatik olarak belirleyebilir. Bu, yapay zekanın saldırganın kötü niyetli niyetlerine uyma olasılığını önemli ölçüde artırır.
Test sonuçları, Fun-Tuning'in Gemini'nin bazı versiyonlarında %82'ye varan bir başarı oranına ulaştığını gösteriyor. Bu rakam, geleneksel saldırı yöntemlerinin %30'dan daha az olan başarı oranını geride bırakıyor.
Fun-Tuning'in tehlikesini artıran bir diğer faktör de düşük maliyetidir. Google'ın ayarlama API'si ücretsiz olarak sunulduğundan, etkili bir saldırı oluşturmanın hesaplama maliyeti 10 ABD doları kadar düşük olabilir. Dahası, araştırmacılar Gemini'nin bir sürümü için tasarlanan bir saldırının diğer sürümlere de kolayca başarıyla uygulanabileceğini ve bu durumun yaygın saldırılar olasılığını ortaya çıkardığını keşfettiler.
Google, Fun-Tuning'in oluşturduğu tehdidin farkında olduğunu doğruladı, ancak ayarlama API'sinin çalışma şeklini değiştirip değiştirmeyeceği konusunda henüz bir yorum yapmadı. Araştırmacılar ayrıca savunma ikilemine de dikkat çekiyor: Fun-Tuning'in kullandığı bilgileri ayarlama sürecinden çıkarmak, API'yi meşru geliştiriciler için daha az kullanışlı hale getirecek. Tersine, olduğu gibi bırakmak, kötü niyetli kişilerin istismarı için bir sıçrama tahtası olmaya devam edecek.
Fun-Tuning'in ortaya çıkışı, siber uzaydaki çatışmanın yeni ve daha karmaşık bir aşamaya girdiğinin açık bir uyarısıdır. Yapay zeka artık sadece bir hedef değil, aynı zamanda kötü niyetli aktörlerin elinde bir araç ve silahtır.
[reklam_2]
Kaynak: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Yorum (0)