Apakah penilaian anda tentang trend penggodam yang "mempersenjatai" AI untuk menjalankan serangan siber dan penipuan?
Dr. Nguyen Tuan Khang: Menurut laporan Indeks Perisikan Ancaman X-Force 2024 IBM, rantau Asia Pasifik , termasuk Vietnam, adalah antara tiga rantau teratas di dunia untuk serangan siber pada tahun 2023. Pembuatan merupakan sektor yang paling terjejas oleh insiden serangan siber ini.
Taktik utama yang digunakan oleh pelaku jahat masih merupakan serangan pancingan data yang menyasarkan individu yang terdedah dan mengeksploitasi kelemahan untuk memasang perisian hasad. Di samping itu, trend baharu yang muncul pada tahun 2024 ialah serangan siber yang melibatkan kecerdasan buatan (AI).
Satu laporan Wired menunjukkan bahawa ramai pelaku jahat menggunakan kandungan yang dijana AI untuk membantu membimbing percubaan penggodaman, mencipta chatbot palsu atau menghasilkan imej dan video palsu yang meniru wajah dan suara orang lain menggunakan teknologi Deepfake.
Walau bagaimanapun, seiring dengan trend ini, sistem keselamatan maklumat juga mula mengintegrasikan ciri-ciri AI, seperti WatsonX. Kecerdasan buatan boleh dieksploitasi, tetapi ia juga boleh menggantikan manusia dalam analisis, pemantauan, pengenalpastian digital dan meramalkan senario serangan, sekali gus meningkatkan keupayaan pertahanan dan meminimumkan risiko keselamatan maklumat.
Penipuan Deepfake semakin menjadi kebiasaan. Dengan perkembangan pesat AI, sejauh manakah serangan ini akan menjadi berbahaya pada masa hadapan?
Dr. Nguyen Tuan Khang: Pada asasnya, Deepfake ialah teknologi yang membolehkan penggodam mencipta identiti digital palsu, sekali gus menyamar sebagai orang lain. Deepfake akan menjadi masalah yang berbahaya kerana teknologi ini semakin canggih.
Untuk memerangi Deepfake, langkah pertama adalah menentukan sama ada imej atau suara seseorang dicipta oleh AI. Pada masa ini, tiada alat universal untuk mengesan Deepfake dengan segera kerana penyerang sentiasa membangunkan model baharu.
Selain mengenal pasti Deepfake, teknik lain untuk memeranginya adalah menggunakan teknologi untuk menganalisis tingkah laku. Dari perspektif organisasi atau perniagaan, adalah perlu untuk membangunkan sistem yang menggabungkan kedua-dua teknik ini.
Sejak kebelakangan ini, terdapat serangan siber di mana penggodam secara rahsia memupuk perisian hasad dalam sistem syarikat. Perisian hasad tersebut tidak aktif, menganalisis semua aktiviti dan mencipta identiti palsu untuk menjalankan niat jahat. Dengan perkembangan teknologi Deepfake, digandingkan dengan keupayaan penciptaan video berkuasa AI, serangan jenis ini akan menjadi lebih berbahaya pada masa hadapan.
Dengan serangan siber Deepfake yang semakin meningkat, bagaimanakah kita dapat melindungi warga emas, kanak-kanak dan kumpulan terdedah lain daripada penipu?
Dr. Nguyen Tuan Khang: Warga emas dan kanak-kanak sering menjadi sasaran penipu menggunakan teknik yang dipanggil kejuruteraan sosial. Istilah ini menggambarkan serangan yang memanipulasi tingkah laku manusia.
Penggodam kini boleh menggunakan AI bersama-sama dengan pengumpulan, eksploitasi dan analisis data untuk mengenal pasti individu yang sangat mudah terdedah kepada penipuan dan kemudian menyasarkan mereka. Selain meningkatkan kesedaran awam, kita juga mesti menerima bahawa situasi di mana pengguna ditipu akan berlaku, dan kita mesti menggunakan teknologi untuk mengesan dan mencegah insiden sedemikian.
Baru-baru ini, terdapat satu kejadian di mana seorang pekerja bank mengesyaki seorang wanita tua ditipu semasa membuat pemindahan wang. Pekerja tersebut segera campur tangan dan melaporkan kejadian itu kepada pihak berkuasa. Sistem IT bank kini memerlukan teknologi untuk menggantikan campur tangan manusia dalam perkara sedemikian.
Peranan teknologi adalah walaupun penghantar diketahui sebagai pemilik yang sah, sistem masih akan mengambil tindakan untuk menyekat transaksi tersebut jika ia mengesyaki manipulasi oleh orang lain. Alat sedemikian dipanggil sistem pencegahan penipuan.
Adakah sudah tiba masanya untuk Vietnam melaksanakan peraturan bagi mengurus AI, membawa penyelidikan, pembangunan dan penggunaan AI ke dalam rangka kerja berstruktur?
Dr. Nguyen Tuan Khang: Isu pengawalseliaan AI telah lama dibincangkan, tetapi masih terdapat banyak perkara kontroversi. Contohnya, tempat letak kereta di kawasan kejiranan saya mempunyai sistem AI untuk pengecaman plat lesen, namun kecurian masih berlaku. Ketika itulah perdebatan bermula tentang siapa yang bersalah. Patutkah pemilik bangunan, pengawal keselamatan, atau pembangun sistem AI dipertanggungjawabkan?
Sejak itu, bangunan itu telah mengubah peraturannya, dengan menyatakan bahawa penduduk boleh memilih untuk menggunakan pengecaman plat lesen berkuasa AI untuk kemudahan, tetapi mereka terpaksa menerima risikonya. Mereka yang bersetuju boleh menggunakan pintu pagar automatik, manakala mereka yang tidak bersetuju terpaksa meletakkan kereta mereka di tempat yang lama. Kita memerlukan sistem seperti itu.
Begitu juga, IBM pernah membangunkan sistem AI untuk membantu mencegah kanser. Apabila sistem itu menetapkan ubat, dan pesakit mengambilnya tetapi masih tidak dapat diselamatkan, adakah kesalahannya adalah pada doktor atau kecerdasan buatan?
Saya fikir peraturan untuk AI perlu khusus, menyatakan dengan jelas apa yang dibenarkan dan apa yang tidak dibenarkan semasa membangunkan aplikasi AI. Untuk menjadikan dunia lebih selamat, peraturan paling asas yang boleh kita laksanakan adalah dengan mewajibkan pemindahan wang yang besar disahkan secara biometrik. Dalam situasi sedemikian, orang yang identitinya telah dikompromikan boleh mengelakkan sepenuhnya kehilangan wang.
Terima kasih, tuan.
[iklan_2]
Sumber






Komen (0)