AI gelap beroperasi di luar norma keselamatan, selalunya membenarkan tingkah laku seperti penipuan, manipulasi, serangan siber atau perlombongan data tanpa pengawasan rapi.
"Pelakon jahat juga menggunakan AI untuk meningkatkan keupayaan serangan mereka. Penyalahgunaan AI yang paling biasa hari ini ialah kemunculan model Black Hat GPT. Ini adalah model AI yang dibangunkan atau disesuaikan secara khusus untuk tujuan yang menyalahi undang-undang seperti mencipta perisian hasad, mendraf e-mel pancingan data, mencipta suara dan video palsu yang mendalam...", kata Sergey Lozhkin, Ketua Pasukan Penyelidikan dan Analisis Global, Timur Tengah, Asia Pasifik, Sergey Lozhkin, Turki dan Asia Pasifik .
GPT Black Hat boleh wujud sebagai model AI peribadi atau separa peribadi sepenuhnya. Beberapa contoh ketara termasuk WormGPT, DarkBard, FraudGPT dan Xanthorox… semuanya direka untuk jenayah siber, penipuan dan automasi berniat jahat.
Encik Lozhkin mendedahkan bahawa pakar Kaspersky kini merekodkan trend yang lebih membimbangkan, dengan kumpulan serangan siber negara bangsa atau yang disokong kerajaan mula memanfaatkan model bahasa besar (LLM) dalam kempen serangan mereka.
"OpenAI baru-baru ini mengumumkan bahawa ia telah mengganggu lebih daripada 20 kempen pengaruh rahsia dan serangan siber yang mengeksploitasi alat AInya. Kami akan melihat penyerang yang semakin canggih menggunakan AI, menimbulkan ancaman dalam ekosistem awam dan swasta. Ini adalah trend membimbangkan yang perlu disediakan oleh semua organisasi, "kata Lozhkin.
Aktor berniat jahat telah mula mengeksploitasi keupayaan model pembelajaran mesin besar (LLM) untuk menipu mangsa dan memintas lapisan keselamatan konvensional, menurut laporan oleh OpenAI. Mereka boleh mencipta mesej palsu yang meyakinkan, menghantar mesej kepada mangsa secara pukal dan menghasilkan kandungan dalam berbilang bahasa.
Untuk mengukuhkan pertahanan terhadap ancaman AI Gelap, pakar Kaspersky mengesyorkan: Menggunakan penyelesaian keselamatan generasi seterusnya seperti Kaspersky Next untuk mengesan perisian hasad yang dijana AI dan mengawal risiko dalam rantaian bekalan. Menggunakan alat perisikan ancaman masa nyata untuk memantau eksploitasi dipacu AI. Memperkukuh kawalan akses dan latihan pekerja untuk mengehadkan Shadow AI dan risiko kebocoran data. Menubuhkan Pusat Operasi Keselamatan (SOC) untuk memantau ancaman dan bertindak balas dengan cepat terhadap insiden.
Sumber: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Komen (0)