Deepfake kini menjadi perhatian utama karena jumlah penipuan yang menggunakan teknologi ini terus meningkat.
Setelah meneliti forum Darknet, tempat para penjahat siber sering beroperasi, para ahli keamanan menemukan bahwa begitu banyak penjahat menggunakan perangkat lunak Deepfake untuk penipuan sehingga permintaan jauh melebihi pasokan perangkat lunak Deepfake yang saat ini tersedia di pasaran.
Karena permintaan melebihi penawaran, para ahli Kaspersky memperkirakan lonjakan penipuan Deepfake, dengan metode yang semakin beragam dan canggih: mulai dari menyediakan video peniruan identitas berkualitas tinggi hingga menggunakan gambar selebriti dalam siaran langsung palsu di media sosial, yang menjanjikan peningkatan dua kali lipat jumlah uang yang dikirim korban.
Menurut sistem referensi informasi Regula, 37% bisnis di seluruh dunia pernah mengalami penipuan Deepfake berbasis suara, dan 29% menjadi korban penipuan Deepfake berbasis video.
Teknologi ini telah menjadi ancaman bagi keamanan siber Vietnam, di mana penjahat siber sering menggunakan panggilan video palsu untuk menyamar sebagai individu guna meminjam uang dari kerabat dan teman mereka.
Panggilan video Deepfake dapat berlangsung sesingkat satu menit, sehingga sangat sulit bagi korban untuk membedakan antara panggilan asli dan panggilan palsu.
Deepfake secara bertahap menjadi "mimpi buruk" dalam penipuan online yang canggih.
" Deepfake telah menjadi mimpi buruk bagi perempuan dan masyarakat. Para penjahat siber memanfaatkan kecerdasan buatan (AI) untuk menempelkan wajah korban ke gambar dan video pornografi, serta dalam kampanye propaganda."
"Bentuk-bentuk manipulasi ini bertujuan untuk mengendalikan opini publik dengan menyebarkan informasi yang salah, bahkan merusak reputasi organisasi atau individu, " ujar Ibu Vo Duong Tu Diem, Direktur Regional Kaspersky Vietnam.
Meskipun AI disalahgunakan oleh penjahat untuk tujuan jahat, individu dan bisnis masih dapat menggunakan kecerdasan buatan untuk mengidentifikasi deepfake, sehingga mengurangi kemungkinan keberhasilan penipuan.
Oleh karena itu, pengguna akan memiliki beberapa solusi bermanfaat untuk melindungi diri dari penipuan, seperti menggunakan perangkat lunak deteksi konten yang dihasilkan AI (yang menggunakan algoritma canggih untuk menganalisis dan menentukan sejauh mana gambar/video/audio telah diedit).
Untuk video deepfake, kini terdapat alat yang membantu mengidentifikasi ketidaksesuaian gerakan antara mulut dan ucapan. Beberapa program bahkan cukup "canggih" untuk mendeteksi aliran darah abnormal di bawah kulit dengan menganalisis resolusi video, karena ketika jantung memompa darah, pembuluh darah di tubuh seseorang berubah warna.
Selain itu, watermark berfungsi sebagai tanda pengenal pada gambar, video, dan lain-lain, membantu penulis melindungi hak cipta produk AI mereka. Fitur ini dapat menjadi senjata melawan Deepfake karena membantu melacak asal platform yang menciptakan kecerdasan buatan tersebut. Pengguna yang paham teknologi dapat menemukan cara untuk melacak sumber konten untuk membandingkan bagaimana data asli telah dimodifikasi oleh AI.
Saat ini, beberapa teknologi baru menggunakan algoritma enkripsi untuk menyisipkan nilai hash pada interval waktu tertentu di dalam video. Jika video telah diedit, nilai hash akan berubah, memungkinkan pengguna untuk memverifikasi apakah konten tersebut telah dimanipulasi.
Sebelumnya, terdapat beberapa pedoman untuk menemukan anomali dalam video, seperti distorsi warna, gerakan otot yang tidak wajar, gerakan mata, dan lain sebagainya. Namun, seiring dengan semakin cerdasnya AI, nilai-nilai tersebut tidak selalu menghasilkan hasil yang akurat.
Proses verifikasi kredibilitas video tidak lagi hanya bergantung pada inspeksi visual, tetapi membutuhkan perangkat teknologi yang dirancang untuk mencegah dan mendeteksi konten palsu.
Khanh Linh
Sumber






Komentar (0)