BGR'ye göre, yeni bir araştırma raporu, yapay zekayı (AI) kullanarak Google'ın Gemini'si de dahil olmak üzere diğer gelişmiş AI modellerini hedef alan son derece etkili anlık enjeksiyon saldırılarını otomatik olarak oluşturan 'Fun-Tuning' adı verilen endişe verici bir tekniği yayınladı.
Bu yöntem, yapay zekayı 'kırmayı' her zamankinden daha hızlı, daha ucuz ve daha kolay hale getirerek, yapay zekayla ilgili siber güvenlik savaşında yeni bir tırmanışa işaret ediyor.
Kötü adamların yapay zekayı kırmak için yapay zekayı kullanmasının tehlikesi
Hızlı enjeksiyon, bir saldırganın bir yapay zeka modelinin giriş verilerine (örneğin, kaynak kodundaki yorumlar, web'deki gizli metinler aracılığıyla) kötü amaçlı talimatlar yerleştirdiği bir tekniktir. Amaç, yapay zekayı "kandırmak" ve önceden programlanmış güvenlik kurallarını atlatmaya zorlamak, hassas verilerin sızdırılması, yanlış bilgi sağlanması veya diğer tehlikeli davranışlarda bulunulması gibi ciddi sonuçlara yol açmaktır.
Bilgisayar korsanları yapay zekaya saldırmak için yapay zekayı kullanıyor
FOTOĞRAF: LINKEDIN EKRAN GÖRÜNTÜSÜ
Daha önce, özellikle Gemini veya GPT-4 gibi 'kapalı' modellerde bu saldırıları başarıyla gerçekleştirmek, genellikle çok fazla karmaşık ve zaman alıcı manuel test gerektiriyordu.
Ancak Fun-Tuning, oyunu tamamen değiştirdi. Birçok üniversiteden araştırmacıdan oluşan bir ekip tarafından geliştirilen yöntem, Google'ın Gemini kullanıcılarına ücretsiz olarak sunduğu ince ayarlı uygulama programlama arayüzünü (API) akıllıca kullanıyor.
Fun-Tuning, Gemini modelinin ayarlama sırasındaki ince tepkilerini (örneğin, verilerdeki hatalara nasıl tepki verdiğini) analiz ederek, kötü amaçlı bir komutu maskelemek için en etkili "önekleri" ve "sonekleri" otomatik olarak belirleyebilir. Bu, yapay zekanın bir saldırganın kötü niyetli niyetlerine uyma olasılığını önemli ölçüde artırır.
Test sonuçları, Fun-Tuning'in Gemini'nin bazı versiyonlarında %82'ye varan bir başarı oranına ulaştığını gösteriyor. Bu rakam, geleneksel saldırı yöntemlerinin %30'dan daha az olan başarı oranını geride bırakıyor.
Fun-Tuning'i daha da tehlikeli kılan şey, düşük maliyetidir. Google'ın ayarlama API'si ücretsiz olarak sunulduğundan, etkili bir saldırı oluşturmanın hesaplama maliyeti 10 ABD doları kadar düşük olabilir. Dahası, araştırmacılar Gemini'nin bir sürümü için tasarlanan bir saldırının diğer sürümlere de kolayca başarıyla uygulanabileceğini ve bu durumun yaygın saldırılar olasılığını ortaya çıkardığını keşfettiler.
Google, Fun-Tuning'in oluşturduğu tehdidin farkında olduğunu doğruladı, ancak ayarlama API'sinin çalışma şeklini değiştirip değiştirmeyeceği konusunda henüz bir yorum yapmadı. Ekip ayrıca savunma ikilemine de dikkat çekiyor: Fun-Tuning'in kullandığı bilgileri ayarlama sürecinden çıkarmak, API'yi meşru geliştiriciler için daha az kullanışlı hale getirecektir. Tersine, olduğu gibi bırakmak, kötü niyetli kişilerin istismarı için bir sıçrama tahtası olmaya devam edecektir.
Fun-Tuning'in ortaya çıkışı, siber uzaydaki çatışmanın yeni ve daha karmaşık bir aşamaya girdiğinin açık bir uyarısıdır. Yapay zeka artık sadece bir hedef değil, aynı zamanda kötü niyetli aktörlerin elinde bir araç ve silahtır.
[reklam_2]
Kaynak: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Yorum (0)