Menurut BGR , laporan penyelidikan baharu baru sahaja menerbitkan teknik membimbangkan yang dipanggil 'Fun-Tuning', yang menggunakan AI (kecerdasan buatan) itu sendiri secara automatik untuk mencipta serangan suntikan segera yang sangat berkesan yang menyasarkan model AI lanjutan lain, termasuk Gemini Google.
Kaedah itu menjadikan 'meretakkan' AI lebih pantas, lebih murah dan lebih mudah berbanding sebelum ini, menandakan peningkatan baharu dalam perang keselamatan siber berkaitan AI.
Bahaya apabila orang jahat menggunakan AI untuk memecahkan AI
Suntikan segera ialah teknik di mana musuh menyelinap arahan berniat jahat ke dalam data input model AI (cth., melalui ulasan dalam kod sumber, teks tersembunyi di web). Matlamatnya adalah untuk 'menipu' AI, memaksanya memintas peraturan keselamatan yang telah diprogramkan, yang membawa kepada akibat yang serius seperti membocorkan data sensitif, memberikan maklumat palsu atau melakukan tingkah laku berbahaya yang lain.
Penggodam menggunakan AI untuk menyerang AI
FOTO: SCREENSHOT LINKEDIN
Sebelum ini, berjaya melakukan serangan ini, terutamanya pada model 'tertutup' seperti Gemini atau GPT-4, selalunya memerlukan banyak ujian manual yang rumit dan memakan masa.
Tetapi Fun-Tuning telah mengubah permainan sepenuhnya. Kaedah itu, yang dibangunkan oleh pasukan penyelidik dari pelbagai universiti, dengan bijak mengeksploitasi antara muka pengaturcaraan aplikasi (API) yang sangat tweaking yang Google sediakan secara percuma kepada pengguna Gemini.
Dengan menganalisis tindak balas halus model Gemini semasa penalaan (cth., cara ia bertindak balas kepada ralat dalam data), Fun-Tuning secara automatik boleh menentukan 'awalan' dan 'akhiran' yang paling berkesan untuk menutup perintah berniat jahat. Ini dengan ketara meningkatkan kemungkinan AI akan mematuhi niat jahat penyerang.
Keputusan ujian menunjukkan bahawa Fun-Tuning mencapai kadar kejayaan sehingga 82% pada beberapa versi Gemini, angka yang melebihi kurang daripada 30% kaedah serangan tradisional.
Apa yang menjadikan Fun-Tuning lebih berbahaya ialah kosnya yang rendah. Memandangkan API penalaan Google tersedia secara percuma, kos pengiraan untuk mencipta serangan yang berkesan boleh serendah $10. Tambahan pula, para penyelidik mendapati bahawa serangan yang direka untuk satu versi Gemini dengan mudah boleh digunakan untuk versi lain, membuka kemungkinan serangan yang meluas.
Google telah mengesahkan bahawa ia menyedari ancaman yang ditimbulkan oleh Fun-Tuning, tetapi masih belum mengulas sama ada ia akan mengubah cara API penalaan berfungsi. Pasukan itu juga menunjukkan dilema pertahanan: mengalih keluar maklumat yang dieksploitasikan Fun-Tuning daripada proses penalaan akan menjadikan API kurang berguna kepada pembangun yang sah. Sebaliknya, membiarkannya seperti sedia ada akan terus menjadi batu loncatan untuk dieksploitasi oleh pelakon jahat.
Kemunculan Fun-Tuning adalah amaran jelas bahawa konfrontasi di alam siber telah memasuki fasa baharu yang lebih kompleks. AI kini bukan sahaja menjadi sasaran tetapi juga alat dan senjata di tangan pelakon yang berniat jahat.
Sumber: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Komen (0)