Penipu dalam talian bukan sahaja menyamar sebagai saudara mara atau pegawai polis, tetapi juga mengawal alat kecerdasan buatan (AI) untuk mencipta beratus-ratus senario penipuan bagi menyerang pengguna.
Pakar keselamatan siber Ngo Minh Hieu mengatakan bahawa penipu memanipulasi AI, mewujudkan ratusan senario penipuan dalam beberapa minit - Foto: Vu Tuan
Menurut perusahaan sosial Chongluadao.vn, penipu telah menggunakan AI untuk menjana perisian hasad, menulis skrip penipuan dan mengubah audio dan video melalui deepfake.
Menurut pakar keselamatan siber Ngo Minh Hieu (Hieu PC) - wakil Chongluadao.vn, taktik berbahaya adalah "menipu AI" untuk memuatkan perisian hasad. "Mereka mencipta fail audio atau imej palsu, membenamkan perisian hasad yang tidak dikenali oleh AI. Apabila sistem AI memprosesnya, perisian hasad akan diaktifkan dan mengambil alih kawalan," jelas Hieu PC.
Dia memberi contoh: penipu menggunakan AI untuk memalsukan suara dan imej saudara-mara melalui FaceTime, memperdaya mereka agar memindahkan wang.
Baru-baru ini, kekerapan penipuan telah meningkat dengan ketara disebabkan oleh sokongan alatan AI. Dengan mengawal AI dan menggunakannya untuk melakukan penipuan, penipu mengatasi semua halangan bahasa dan geografi. Bentuk penyamaran menjadi semakin canggih dan berbahaya.
Pakar Hieu PC menganalisis bahawa tidak kira apa alat yang digunakan untuk penipuan, penjenayah siber sentiasa mempunyai skrip. Ini adalah maklumat yang diperoleh pasukannya daripada menerima dan memproses ratusan laporan penipuan dalam talian.
Bentuk penipuan yang biasa berlaku termasuk menyamar sebagai saudara mara, pegawai kerajaan, pegawai polis atau pekerja syarikat kuasa; kaedah yang lebih canggih melibatkan pemikat mangsa ke dalam perangkap pelaburan, tugasan misi atau skim temu janji.
Pakar keselamatan siber mengatakan perkara pertama yang perlu dilakukan untuk mengelakkan penyamaran imej adalah dengan tidak berkongsi foto peribadi secara terbuka di media sosial. Panggilan dan mesej yang meminta pemindahan wang, klik pautan atau kod OTP adalah 99% kemungkinan besar penipuan.
Taktik penggodam untuk menyerang AI
Menurut pakar keselamatan siber, "serangan adversarial" merupakan taktik yang digunakan oleh penggodam untuk "menipu" AI. Ini melibatkan maklumat salah yang mengelirukan atau mengeksploitasi AI, mengakibatkan AI memasang perisian hasad atau melaksanakan arahan yang diberikan oleh penipu.
Penipu mengeksploitasi kelemahan ini untuk memintas AI, terutamanya sistem perlindungan AI (seperti perisian antivirus, pengecaman suara atau pengesahan transaksi bank).
[iklan_2]
Sumber: https://tuoitre.vn/lua-dao-mang-lua-ca-ai-tao-kich-ban-thao-tung-tam-ly-20250228163856719.htm






Komen (0)