AI gelap beroperasi di luar standar keamanan, seringkali memungkinkan perilaku seperti penipuan, manipulasi, serangan siber, atau eksploitasi data tanpa pengawasan ketat.
“Pelaku kejahatan juga memanfaatkan AI untuk meningkatkan kemampuan serangan mereka. Penyalahgunaan AI yang paling umum saat ini adalah munculnya model Black Hat GPT. Ini adalah model AI yang secara khusus dikembangkan atau dimodifikasi untuk melayani tujuan ilegal seperti membuat malware, menyusun email phishing, menghasilkan video suara dan deepfake…,” ujar Sergey Lozhkin, Kepala Tim Riset dan Analisis Global (GReAT) untuk Timur Tengah, Turki, Afrika, dan Asia Pasifik di Kaspersky.
Black Hat GPT dapat berupa model AI yang sepenuhnya privat atau semi-privat. Beberapa contoh yang terkenal termasuk WormGPT, DarkBard, FraudGPT, dan Xanthorox, yang semuanya dirancang untuk melayani kejahatan siber, penipuan, dan aktivitas otomatisasi berbahaya.
Lozhkin mengungkapkan bahwa para ahli Kaspersky kini mengamati tren yang bahkan lebih mengkhawatirkan: kelompok penyerang siber yang didukung negara atau pemerintah mulai memanfaatkan model bahasa besar (LLM) dalam kampanye serangan mereka.
“OpenAI baru-baru ini mengumumkan bahwa mereka telah menggagalkan lebih dari 20 kampanye pengaruh terselubung dan serangan siber yang mengeksploitasi alat AI mereka. Kita harus menghadapi penyerang yang semakin canggih yang mempersenjatai AI, yang menjadi ancaman di ekosistem publik dan swasta. Ini adalah tren yang mengkhawatirkan yang perlu dipersiapkan oleh semua organisasi,” kata Lozhkin.
Menurut laporan OpenAI, pelaku kejahatan telah mulai mengeksploitasi kemampuan model pembelajaran mesin skala besar (LLM) untuk menipu korban dan melewati lapisan keamanan konvensional. Mereka dapat membuat pesan palsu yang meyakinkan, mengirim pesan massal kepada korban, dan menghasilkan konten dalam berbagai bahasa.
Untuk meningkatkan pertahanan terhadap ancaman Dark AI, para ahli Kaspersky merekomendasikan: Memanfaatkan solusi keamanan generasi berikutnya seperti Kaspersky Next untuk mendeteksi malware yang dihasilkan AI dan mengendalikan risiko rantai pasokan; menerapkan alat intelijen ancaman waktu nyata untuk memantau eksploitasi kerentanan yang didorong oleh AI; memperkuat kontrol akses dan pelatihan staf untuk membatasi risiko Shadow AI dan kebocoran data; dan membangun Pusat Operasi Keamanan (SOC) untuk memantau ancaman dan merespons insiden dengan cepat.
Sumber: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Komentar (0)