Kecerdasan buatan (AI) seperti ChatGPT telah menjadi sensasi global sejak awal 2023, tetapi AI ini tidak selalu digunakan untuk tujuan positif. Baru-baru ini, pakar keselamatan menemui cara untuk meminta ChatGPT membuat kod hasad semasa ujian.
Aaron Mulgrew, pakar keselamatan di Forcepoint, berkongsi risiko menulis perisian hasad menggunakan chatbot bahasa OpenAI. Walaupun ChatGPT direka untuk menghalang pengguna daripada meminta AI mereka bentuk perisian hasad, Aaron masih menemui kelemahan dengan membuat gesaan untuk AI menulis kod pengaturcaraan baris demi baris. Apabila digabungkan bersama, Aaron menyedari bahawa dia mempunyai alat pelaksanaan kecurian data yang tidak dapat dikesan di tangannya, sangat canggih sehingga setanding dengan perisian hasad yang paling canggih hari ini.
Setiap baris arahan individu yang dijana oleh ChatGPT, apabila digabungkan, boleh menjadi perisian hasad yang canggih.
Penemuan Mulgrew ialah panggilan bangun tentang potensi AI untuk digunakan untuk mencipta perisian hasad berbahaya tanpa memerlukan kumpulan penggodam, malah pencipta alat itu menulis satu baris kod.
Perisian Mulgrew menyamar sebagai aplikasi penyelamat skrin, tetapi mampu mengaktifkan secara automatik pada peranti berasaskan Windows. Setelah berada dalam sistem pengendalian, perisian hasad "menyusup" setiap fail, termasuk penyunting teks Word, fail imej dan PDF, mencari data untuk dicuri.
Sebaik sahaja ia mempunyai apa yang diperlukan, atur cara memecah maklumat dan melampirkannya pada fail imej pada mesin. Untuk mengelakkan pengesanan, imej dimuat naik ke folder di Google Drive. Malware ini sangat berkuasa kerana Mulgrew boleh mengubah suai dan meningkatkan ciri-cirinya untuk mengelakkan pengesanan melalui arahan mudah yang dimasukkan ke dalam ChatGPT.
Walaupun ini adalah ujian peribadi oleh pakar keselamatan dan tiada serangan dilakukan di luar skop ujian, komuniti keselamatan siber masih menyedari bahaya aktiviti menggunakan ChatGPT. Mulgrew mendakwa bahawa dia tidak mempunyai banyak pengalaman dalam pengaturcaraan, tetapi kecerdasan buatan OpenAI masih tidak kuat dan cukup pintar untuk menghalang ujiannya.
Pautan sumber
Komen (0)