BGR'ye göre, yeni bir araştırma raporu, yapay zekayı (AI) kullanarak Google'ın Gemini'si de dahil olmak üzere diğer gelişmiş yapay zeka modellerini hedef alan son derece etkili anlık enjeksiyon saldırıları otomatik olarak üreten 'Fun-Tuning' adlı endişe verici bir tekniği ortaya çıkardı.
Bu yöntem, yapay zekâyı "hacklemeyi" her zamankinden daha hızlı, daha ucuz ve daha kolay hale getirerek, yapay zekâyı içeren siber güvenlik mücadelesinde yeni bir tırmanışa işaret ediyor.
Kötü niyetli kişilerin yapay zekayı kullanarak yapay zekayı bozma tehlikesi.
İstem enjeksiyonu, kötü niyetli kişilerin bir yapay zekâ modelinin girdi verilerine (örneğin, kaynak kodundaki yorumlar veya web'deki gizli metinler aracılığıyla) gizlice zararlı talimatlar yerleştirdiği bir tekniktir. Amaç, yapay zekâyı "aldatmak" ve önceden programlanmış güvenlik kurallarını göz ardı etmeye zorlamaktır; bu da hassas verilerin sızdırılması, yanlış bilgi verilmesi veya diğer tehlikeli eylemlerin gerçekleştirilmesi gibi ciddi sonuçlara yol açabilir.
Hackerlar yapay zekaya saldırmak için yapay zekayı kullanıyor.
FOTOĞRAF: LINKEDIN'DEN ALINMIŞ EKRAN GÖRÜNTÜSÜ
Daha önce, bu saldırıları, özellikle Gemini veya GPT-4 gibi 'kapalı' modellere karşı başarıyla gerçekleştirmek, genellikle oldukça karmaşık ve zaman alıcı manuel testler gerektiriyordu.
Ancak Fun-Tuning, durumu tamamen değiştirdi. Birden fazla üniversiteden bir araştırma ekibi tarafından geliştirilen bu yöntem, Google'ın Gemini kullanıcılarına ücretsiz olarak sağladığı gelişmiş uygulama programlama arayüzünü (API) akıllıca kullanıyor.
Fun-Tuning, ayarlama işlemi sırasında Gemini modelinin ince tepkilerini (örneğin, verilerdeki hatalara nasıl tepki verdiğini) analiz ederek, kötü niyetli bir ifadeyi gizlemek için en etkili 'ön ekleri' ve 'son ekleri' otomatik olarak belirleyebilir. Bu, yapay zekanın saldırganın kötü niyetine uyma olasılığını önemli ölçüde artırır.
Test sonuçları, Fun-Tuning'in Gemini'nin bazı sürümlerinde %82'ye varan bir başarı oranı elde ettiğini gösteriyor; bu rakam, geleneksel saldırı yöntemlerinin elde ettiği %30'un altındaki orandan çok daha üstün.
Fun-Tuning'in tehlikesini artıran bir diğer unsur ise son derece düşük uygulama maliyetidir. Google'ın ayarlama API'si ücretsiz olarak sağlandığı için, etkili bir saldırı oluşturmanın hesaplama maliyeti 10 dolara kadar düşebilir. Dahası, araştırmacılar Gemini'nin bir sürümü için tasarlanmış bir saldırının diğer sürümlere de kolayca ve başarıyla uygulanabileceğini ve yaygın saldırı riskini ortaya çıkardığını keşfettiler.
Google, Fun-Tuning tekniğinin oluşturduğu tehdidin farkında olduğunu doğruladı ancak ayarlama API'sinin çalışma şeklini değiştirip değiştirmeyeceği konusunda henüz bir açıklama yapmadı. Araştırma ekibi ayrıca buna karşı savunmanın zorluğuna da dikkat çekti: Fun-Tuning tarafından istismar edilen bilgiler ayarlama sürecinden kaldırılırsa, API meşru geliştiriciler için daha az kullanışlı hale gelecektir. Tersine, değiştirilmezse, kötü niyetli aktörlerin istismar etmesi için bir sıçrama tahtası olmaya devam edecektir.
Fun-Tuning'in ortaya çıkışı, siber alandaki çatışmanın yeni ve daha karmaşık bir aşamaya girdiğini gösteren açık bir uyarıdır. Yapay zeka artık sadece bir hedef değil, aynı zamanda kötü niyetli aktörlerin elinde bir araç ve silahtır.
[reklam_2]
Kaynak: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Yorum (0)