Menurut BGR , satu laporan penyelidikan baharu baru sahaja mendedahkan teknik membimbangkan yang dipanggil 'Fun-Tuning', yang menggunakan AI (kecerdasan buatan) untuk menjana serangan suntikan segera yang sangat berkesan secara automatik yang menyasarkan model AI canggih lain, termasuk Gemini Google.
Kaedah ini menjadikan 'penggodaman' AI lebih pantas, lebih murah dan lebih mudah berbanding sebelum ini, menandakan peningkatan baharu dalam pertempuran keselamatan siber yang melibatkan AI.
Bahaya pelaku jahat menggunakan AI untuk merosakkan AI.
Suntikan segera ialah teknik di mana pelaku berniat jahat secara senyap-senyap memasukkan arahan berbahaya ke dalam data input model AI (cth., melalui komen dalam kod sumber, teks tersembunyi di web). Matlamatnya adalah untuk 'menipu' AI, memaksanya mengabaikan peraturan keselamatan yang telah diprogramkan, yang membawa kepada akibat yang serius seperti membocorkan data sensitif, memberikan maklumat salah atau melakukan tindakan berbahaya yang lain.
Penggodam menggunakan AI untuk menyerang AI.
FOTO: SKRIN DARIPADA LINKEDIN
Sebelum ini, kejayaan melaksanakan serangan ini, terutamanya pada model 'tertutup' seperti Gemini atau GPT-4, sering memerlukan banyak ujian manual yang kompleks dan memakan masa.
Tetapi Fun-Tuning telah mengubah sepenuhnya landskap tersebut. Dibangunkan oleh sekumpulan penyelidik dari pelbagai universiti, kaedah ini dengan bijak mengeksploitasi antara muka pengaturcaraan aplikasi (API) yang diperhalusi yang disediakan oleh Google secara percuma kepada pengguna Gemini.
Dengan menganalisis tindak balas halus model Gemini semasa proses penalaan (contohnya, bagaimana ia bertindak balas terhadap ralat dalam data), Fun-Tuning boleh mengenal pasti 'awalan' dan 'akhiran' yang paling berkesan secara automatik untuk menutup pernyataan berniat jahat. Ini meningkatkan kemungkinan AI akan mematuhi niat jahat penyerang dengan ketara.
Keputusan ujian menunjukkan bahawa Fun-Tuning mencapai kadar kejayaan sehingga 82% pada beberapa versi Gemini, angka yang jauh lebih baik daripada kurang daripada 30% yang dicapai oleh kaedah serangan tradisional.
Apa yang menambah bahaya Fun-Tuning ialah kos pelaksanaannya yang sangat rendah. Oleh kerana API penalaan Google disediakan secara percuma, kos pengiraan untuk mencipta serangan yang berkesan boleh serendah $10. Tambahan pula, para penyelidik mendapati bahawa serangan yang direka untuk satu versi Gemini boleh digunakan dengan mudah pada versi lain, sekali gus membuka risiko serangan yang meluas.
Google telah mengesahkan bahawa ia menyedari ancaman yang ditimbulkan oleh teknik Fun-Tuning tetapi masih belum mengulas sama ada ia akan mengubah cara API penalaan berfungsi. Pasukan penyelidikan juga menunjukkan kesukaran untuk mempertahankan diri daripada perkara ini: jika maklumat yang dieksploitasi oleh Fun-Tuning dialih keluar daripada proses penalaan, API akan menjadi kurang berguna kepada pembangun yang sah. Sebaliknya, jika ia kekal tidak berubah, ia akan terus menjadi batu loncatan untuk dieksploitasi oleh pelaku yang berniat jahat.
Kemunculan Fun-Tuning merupakan amaran yang jelas, menunjukkan bahawa konfrontasi di ruang siber telah memasuki fasa baharu yang lebih kompleks. AI kini bukan sahaja menjadi sasaran tetapi juga alat dan senjata di tangan pelaku jahat.
[iklan_2]
Sumber: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Komen (0)