Vietnam.vn - Nền tảng quảng bá Việt Nam

Peretas menggunakan AI untuk menyerang Gemini milik Google.

Báo Thanh niênBáo Thanh niên30/03/2025


Menurut BGR , sebuah laporan penelitian baru saja mengungkap teknik yang mengkhawatirkan bernama 'Fun-Tuning,' yang menggunakan AI (kecerdasan buatan) untuk secara otomatis menghasilkan serangan injeksi prompt yang sangat efektif yang menargetkan model AI canggih lainnya, termasuk Gemini milik Google.

Metode ini membuat 'peretasan' AI menjadi lebih cepat, lebih murah, dan lebih mudah dari sebelumnya, menandai eskalasi baru dalam pertempuran keamanan siber yang melibatkan AI.

Bahaya yang ditimbulkan oleh pihak-pihak jahat yang menggunakan AI untuk merusak AI.

Injeksi prompt adalah teknik di mana pelaku jahat secara diam-diam memasukkan instruksi berbahaya ke dalam data masukan model AI (misalnya, melalui komentar dalam kode sumber, teks tersembunyi di web). Tujuannya adalah untuk 'menipu' AI, memaksanya untuk mengabaikan aturan keamanan yang telah diprogram sebelumnya, yang menyebabkan konsekuensi serius seperti kebocoran data sensitif, penyebaran informasi yang salah, atau melakukan tindakan berbahaya lainnya.

Hacker đang dùng chính AI để tấn công Gemini của Google - Ảnh 1.

Peretas menggunakan AI untuk menyerang AI.

FOTO: TANGKAPAN LAYAR DARI LINKEDIN

Sebelumnya, keberhasilan dalam mengeksekusi serangan ini, terutama pada model 'tertutup' seperti Gemini atau GPT-4, seringkali membutuhkan banyak pengujian manual yang kompleks dan memakan waktu.

Namun, Fun-Tuning benar-benar mengubah segalanya. Dikembangkan oleh tim peneliti dari berbagai universitas, metode ini secara cerdas memanfaatkan antarmuka pemrograman aplikasi (API) yang disempurnakan yang disediakan Google secara gratis kepada pengguna Gemini.

Dengan menganalisis respons halus model Gemini selama proses penyetelan (misalnya, bagaimana model tersebut merespons kesalahan dalam data), Fun-Tuning dapat secara otomatis mengidentifikasi 'awalan' dan 'akhiran' yang paling efektif untuk menyamarkan pernyataan berbahaya. Hal ini secara signifikan meningkatkan kemungkinan bahwa AI akan mematuhi niat jahat penyerang.

Hasil pengujian menunjukkan bahwa Fun-Tuning mencapai tingkat keberhasilan hingga 82% pada beberapa versi Gemini, angka yang jauh lebih unggul daripada kurang dari 30% yang dicapai oleh metode penyerangan tradisional.

Yang menambah bahaya Fun-Tuning adalah biaya eksekusinya yang sangat rendah. Karena API tuning Google disediakan secara gratis, biaya komputasi untuk membuat serangan yang efektif bisa serendah $10. Lebih jauh lagi, para peneliti telah menemukan bahwa serangan yang dirancang untuk satu versi Gemini dapat dengan mudah berhasil diterapkan pada versi lain, sehingga membuka risiko serangan yang meluas.

Google telah mengkonfirmasi bahwa mereka menyadari ancaman yang ditimbulkan oleh teknik Fun-Tuning, tetapi belum berkomentar apakah akan mengubah cara kerja API tuning. Tim peneliti juga menunjukkan kesulitan dalam mempertahankan diri dari hal ini: jika informasi yang dieksploitasi oleh Fun-Tuning dihapus dari proses tuning, API akan menjadi kurang bermanfaat bagi pengembang yang sah. Sebaliknya, jika tetap tidak berubah, API tersebut akan terus menjadi batu loncatan bagi pelaku jahat untuk melakukan eksploitasi.

Munculnya Fun-Tuning merupakan peringatan yang jelas, menunjukkan bahwa konfrontasi di dunia maya telah memasuki fase baru yang lebih kompleks. AI kini bukan hanya target tetapi juga alat dan senjata di tangan pelaku jahat.



Sumber: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm

Komentar (0)

Silakan tinggalkan komentar untuk berbagi perasaan Anda!

Dalam topik yang sama

Dalam kategori yang sama

Dari penulis yang sama

Warisan

Angka

Bisnis

Berita Terkini

Sistem Politik

Lokal

Produk

Happy Vietnam
"Penjaga Cahaya"

"Penjaga Cahaya"

Vietnam pada masa damai

Vietnam pada masa damai

Tari Mua Danh Bong

Tari Mua Danh Bong