Deepfake sekarang menjadi perhatian utama karena jumlah penipuan berbasis teknologi terus meningkat.
Setelah meneliti forum Darknet, tempat para penjahat dunia maya kerap beroperasi, para pakar keamanan menemukan bahwa ada begitu banyak penjahat yang menggunakan Deepfake untuk penipuan sehingga permintaannya jauh melebihi pasokan perangkat lunak Deepfake yang saat ini ada di pasaran.
Karena permintaan melebihi pasokan, para ahli Kaspersky memprediksi bahwa penipuan Deepfake akan meningkat, dengan bentuk yang lebih beragam dan canggih: mulai dari menawarkan video peniruan berkualitas tinggi hingga menggunakan gambar selebritas dalam siaran langsung media sosial palsu, dengan janji membayar dua kali lipat jumlah yang dikirimkan korban.
Menurut sistem referensi informasi Regula, 37% bisnis di seluruh dunia telah mengalami penipuan suara Deepfake dan 29% telah menjadi korban video Deepfake.
Teknologi ini telah menjadi ancaman bagi keamanan siber di Vietnam, di mana penjahat siber kerap menggunakan panggilan video palsu untuk menyamar sebagai seseorang agar dapat meminjam uang dari saudara dan teman mereka.
Panggilan video Deepfake dapat berlangsung hanya satu menit, sehingga sulit bagi korban untuk membedakan mana yang asli dan mana yang palsu.
Deepfake secara bertahap menjadi "mimpi buruk" dalam penipuan daring yang canggih.
Deepfake telah menjadi mimpi buruk bagi perempuan dan masyarakat. Penjahat siber memanfaatkan kecerdasan buatan (AI) untuk memasukkan wajah korban ke dalam foto dan video pornografi, serta dalam kampanye propaganda.
Bentuk-bentuk ini bertujuan untuk memanipulasi opini publik dengan menyebarkan informasi palsu, bahkan merusak reputasi organisasi atau individu, ” kata Ibu Vo Duong Tu Diem, Direktur Regional Kaspersky di Vietnam.
Meskipun AI disalahgunakan oleh penjahat untuk tujuan jahat, individu dan bisnis masih dapat menggunakan kecerdasan buatan itu sendiri untuk mengidentifikasi Deepfake, sehingga mengurangi kemungkinan keberhasilan penipuan.
Dengan demikian, pengguna akan memiliki beberapa solusi yang berguna untuk melindungi diri dari penipuan seperti menggunakan perangkat lunak deteksi konten yang dihasilkan AI (menggunakan algoritma canggih untuk menganalisis dan menentukan tingkat pengeditan gambar/video/suara).
Untuk video Deepfake, tersedia alat yang dapat mendeteksi gerakan mulut dan ucapan yang tidak selaras. Beberapa program bahkan cukup canggih untuk mendeteksi aliran darah abnormal di bawah kulit dengan menganalisis resolusi video karena pembuluh darah manusia berubah warna saat jantung memompa darah.
Selain itu, terdapat pula tanda air yang berfungsi sebagai tanda pengenal pada gambar, video, dll. untuk membantu pencipta melindungi hak cipta produk AI. Fitur ini dapat menjadi senjata ampuh melawan Deepfake karena membantu melacak asal platform yang menciptakan kecerdasan buatan. Pengguna dengan tingkat pengetahuan teknologi yang memadai dapat menemukan cara untuk melacak asal konten dan membandingkan bagaimana data asli telah diedit oleh "tangan" AI.
Saat ini, beberapa teknologi yang sedang berkembang menggunakan algoritma enkripsi untuk menyisipkan nilai hash pada interval waktu tertentu ke dalam video. Jika video telah diedit, nilai hash akan berubah dan dari sana pengguna dapat memverifikasi apakah konten telah dimanipulasi atau tidak.
Sebelumnya sudah ada beberapa tutorial tentang cara menemukan anomali dalam video, misalnya penyimpangan warna, gerakan otot dan mata yang tidak wajar... Namun, AI semakin pintar sehingga nilai-nilai ini tidak selalu memberikan hasil yang benar.
Proses verifikasi keandalan video tidak lagi didasarkan pada penglihatan telanjang, tetapi memerlukan perangkat teknologi yang dibuat dengan tujuan mencegah dan mendeteksi konten palsu.
Khanh Linh
[iklan_2]
Sumber






Komentar (0)