Menurut BGR , laporan penyelidikan baharu baru sahaja menerbitkan teknik membimbangkan yang dipanggil 'Fun-Tuning', apabila menggunakan AI (kecerdasan buatan) sendiri secara automatik untuk mencipta serangan suntikan segera yang sangat berkesan yang menyasarkan model AI lanjutan lain, termasuk Gemini Google.
Kaedah itu menjadikan 'meretakkan' AI lebih pantas, lebih murah dan lebih mudah berbanding sebelum ini, menandakan peningkatan baharu dalam perang keselamatan siber berkaitan AI.
Bahaya apabila orang jahat menggunakan AI untuk memecahkan AI
Suntikan segera ialah teknik di mana musuh menyelinap arahan berniat jahat ke dalam data input model AI (cth., melalui ulasan dalam kod sumber, teks tersembunyi di web). Matlamatnya adalah untuk 'menipu' AI supaya memintas peraturan keselamatan yang telah diprogramkan, yang membawa kepada akibat yang serius seperti membocorkan data sensitif, memberikan maklumat palsu atau melakukan tindakan berniat jahat yang lain.
Penggodam menggunakan AI untuk menyerang AI
FOTO: SCREENSHOT LINKEDIN
Sebelum ini, kejayaan melaksanakan serangan ini, terutamanya pada model 'tertutup' seperti Gemini atau GPT-4, selalunya memerlukan banyak ujian manual yang rumit dan memakan masa.
Tetapi Fun-Tuning telah mengubah permainan sepenuhnya. Dibangunkan oleh sekumpulan penyelidik dari pelbagai universiti, kaedah ini dengan bijak mengeksploitasi antara muka pengaturcaraan aplikasi (API) yang sangat sesuai yang Google sediakan secara percuma kepada pengguna Gemini.
Dengan menganalisis tindak balas halus model Gemini semasa penalaan (cth. cara ia bertindak balas kepada ralat dalam data), Fun-Tuning secara automatik boleh menentukan 'awalan' dan 'akhiran' yang paling berkesan untuk menyembunyikan perintah berniat jahat. Ini dengan ketara meningkatkan kemungkinan bahawa AI akan mematuhi niat jahat penyerang.
Keputusan ujian menunjukkan bahawa Fun-Tuning mencapai kadar kejayaan sehingga 82% pada beberapa versi Gemini, angka yang melebihi kurang daripada 30% kaedah serangan tradisional.
Menambah bahaya Fun-Tuning ialah kosnya yang rendah. Memandangkan API penalaan Google tersedia secara percuma, kos pengiraan untuk mencipta serangan berkesan boleh serendah $10. Tambahan pula, para penyelidik mendapati bahawa serangan yang direka untuk satu versi Gemini dengan mudah boleh digunakan untuk versi lain, membuka kemungkinan serangan yang meluas.
Google telah mengesahkan bahawa ia menyedari ancaman yang ditimbulkan oleh Fun-Tuning, tetapi masih belum mengulas sama ada ia akan mengubah cara API penalaan berfungsi. Para penyelidik juga menunjukkan dilema pertahanan: mengalih keluar maklumat yang dieksploitasi Fun-Tuning daripada proses penalaan akan menjadikan API kurang berguna kepada pembangun yang sah. Sebaliknya, membiarkannya seperti sedia ada akan terus menjadi batu loncatan untuk dieksploitasi oleh pelakon jahat.
Kemunculan Fun-Tuning adalah amaran jelas bahawa konfrontasi di alam siber telah memasuki fasa baharu yang lebih kompleks. AI kini bukan sahaja menjadi sasaran tetapi juga alat dan senjata di tangan pelakon yang berniat jahat.
Sumber: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm
Komen (0)