Apakah pendapat anda tentang trend penggodam "mempersenjatai" AI untuk melakukan serangan siber dan penipuan?
Dr. Nguyen Tuan Khang: Menurut Indeks Perisikan Ancaman X-Force 2024 IBM, Asia- Pasifik , termasuk Vietnam, adalah wilayah yang paling banyak mengalami serangan siber di dunia pada tahun 2023. Daripada jumlah itu, industri pembuatan adalah industri yang paling terjejas oleh serangan siber.
Kaedah utama orang jahat masih serangan pancingan data yang menyasarkan orang yang terdedah dan mengeksploitasi kelemahan untuk memasang perisian hasad. Selain itu, trend yang muncul pada tahun 2024 ialah serangan siber yang melibatkan kecerdasan buatan (AI).
Laporan Wired menunjukkan bahawa ramai orang jahat menggunakan AI generatif untuk membantu membimbing penggodaman, mencipta chatbot palsu atau imej dan video palsu wajah dan suara orang lain menggunakan Deepfake.
Walau bagaimanapun, seiring dengan aliran ini, sistem keselamatan maklumat juga mula menyepadukan ciri AI, seperti watsonx. Kecerdasan buatan boleh dieksploitasi, tetapi ia juga boleh menggantikan manusia dalam menganalisis, memantau, mengenal pasti nombor, meramalkan senario serangan, dengan itu meningkatkan keupayaan pertahanan dan meminimumkan risiko keselamatan maklumat.
Penipuan Deepfake semakin menjadi-jadi. Dengan perkembangan pesat AI, betapa bahayanya serangan ini pada masa hadapan?
Dr. Nguyen Tuan Khang: Pada asasnya, Deepfake ialah teknologi yang membantu penggodam mencipta identiti digital palsu, dengan itu menyamar sebagai orang lain. Deepfake akan menjadi masalah berbahaya kerana teknologi ini semakin canggih.
Untuk memerangi Deepfakes, perkara pertama yang perlu dilakukan ialah menentukan sama ada imej atau suara seseorang dijana AI. Pada masa ini tiada alat universal yang boleh mengesan Deepfakes dengan segera kerana penyerang sentiasa membangunkan model baharu.
Selain pengesanan Deepfake, terdapat satu lagi teknik untuk menanganinya, iaitu menggunakan teknologi untuk menganalisis tingkah laku. Dari perspektif organisasi dan perniagaan, adalah perlu untuk membangunkan sistem yang menggabungkan kedua-dua teknik ini.
Sejak kebelakangan ini, terdapat serangan siber di mana penggodam telah secara rahsia menanam perisian hasad dalam sistem syarikat. Malware sedang menunggu dan menganalisis semua aktiviti, dengan itu mencipta identiti palsu untuk menjalankan niat jahat. Dengan perkembangan teknologi Deepfake, digabungkan dengan keupayaan untuk mencipta video yang dicipta oleh AI, jenis serangan ini akan menjadi lebih berbahaya pada masa hadapan.
Dengan peningkatan serangan siber Deepfake, bagaimanakah kita boleh melindungi orang tua, kanak-kanak dan kumpulan lain yang terdedah daripada penipu?
Dr Nguyen Tuan Khang: Orang tua dan kanak-kanak sering diserang oleh penipu menggunakan teknik yang dipanggil kejuruteraan sosial. Ini adalah istilah yang menggambarkan serangan melalui manipulasi tingkah laku manusia.
Penggodam kini boleh menggunakan AI dalam kombinasi dengan pengumpulan data, perlombongan dan analisis untuk mengenal pasti orang yang mungkin ditipu dan kemudian mencari cara untuk menyerang. Di samping meningkatkan kesedaran dalam komuniti, kita juga mesti menerima bahawa situasi di mana pengguna ditipu akan berlaku, dan mesti menggunakan teknologi untuk mengesan dan mencegahnya.
Baru-baru ini, terdapat kes di mana seorang pekerja bank mengesyaki seorang wanita tua yang datang untuk memindahkan wang mempunyai tanda-tanda ditipu. Orang ini kemudian segera menghentikan transaksi dan melaporkannya kepada pihak berkuasa. Sistem IT bank kini mempunyai teknologi untuk menggantikan manusia dalam tugas tersebut.
Peranan teknologi ialah walaupun pengirim diketahui sebagai orang sebenar, sistem akan tetap menghalang tingkah laku ini jika disyaki orang lain memanipulasinya. Alat sedemikian dipanggil sistem pengurangan penipuan dan pemalsuan.
Adakah sudah tiba masanya untuk Vietnam mengenakan sekatan untuk mengurus AI, dan meletakkan penyelidikan, pembangunan dan penggunaan AI ke dalam rangka kerja?
Dr Nguyen Tuan Khang: Sekatan untuk pengurusan AI telah lama disebut, namun masih terdapat banyak kontroversi. Sebagai contoh, tempat letak kereta di kawasan saya mempunyai sistem AI untuk mengecam plat lesen, tetapi masih berlaku kecurian. Pada masa itu, kontroversi mula timbul tentang kesalahan siapa. Sekiranya pemilik pangsapuri, pengawal keselamatan atau unit yang membangunkan sistem AI bertanggungjawab?
Sejak itu, bangunan itu telah menukar peraturannya, menyatakan bahawa penduduk boleh memilih untuk menggunakan AI untuk mengenali plat lesen untuk kemudahan, tetapi mereka perlu menerima risikonya. Mereka yang bersetuju akan dapat menggunakan pintu automatik, mereka yang tidak perlu meletakkan kereta mereka dengan cara lama. Kita perlu ada sekatan seperti itu.
Begitu juga, IBM pernah membangunkan sistem AI untuk membantu mencegah kanser. Apabila sistem menetapkan ubat tetapi pesakit masih tidak dapat diselamatkan selepas mengambilnya, adakah ia salah doktor atau AI?
Saya fikir peraturan AI perlu khusus, menyatakan dengan jelas perkara yang boleh dan tidak boleh dilakukan semasa membangunkan aplikasi AI. Untuk menjadikan dunia lebih selamat, peraturan paling asas yang boleh kita lakukan ialah memerlukan pemindahan wang yang besar untuk disahkan secara biometrik. Dalam keadaan sedemikian, orang yang kehilangan maklumat identiti mereka boleh mengelakkan kehilangan wang sepenuhnya.
terima kasih tuan.
Sumber
Komen (0)