Deepfake adalah teknologi kecerdasan buatan yang memungkinkan pembuatan video , gambar, dan suara palsu dengan tingkat keaslian yang tinggi. Oleh karena itu, Anda perlu memahami informasi untuk mengenali video Deepfake agar terhindar dari penipuan dan mengidentifikasi informasi palsu.
Periksa gerakan wajah
Salah satu tanda paling jelas dari video palsu adalah gerakan mata yang tidak alami dan kurangnya kedipan mata. Deepfake masih terbatas, teknologinya tidak dapat sepenuhnya mensimulasikan kedipan mata alami manusia atau mereproduksi gerakan mata secara akurat.
| Periksa gerakan wajah untuk mengenali video Deepfake palsu. |
Selain itu, Anda juga dapat mengenali video Deepfake palsu melalui emosi wajah yang tidak sesuai dengan konten, warna kulit, rambut, dan gigi yang tidak sama dengan kenyataan, atau cahaya aneh yang muncul karena penggunaan kecerdasan buatan untuk menciptakan ulang.
Kualitas suara
Anda dapat mengenali video palsu yang dibuat oleh Deepfake melalui suaranya, karena teknologi ini lebih berfokus pada pembuatan ulang gambar dan video. Perhatikan gerakan mulut saat orang dalam video berbicara untuk memastikan suaranya sesuai dengan gambar.
| Periksa kualitas suara. |
Postur penelepon
Saat ini, teknologi Deepfake belum dapat mereproduksi postur gerakan manusia secara sempurna. Terkadang, penelepon dalam video akan muncul dalam postur yang "aneh", tidak seperti manusia. Misalnya, postur yang aneh, serta orientasi kepala dan tubuh dalam video tidak konsisten satu sama lain.
Dengan semakin pesatnya perkembangan kecerdasan buatan, membuat video Deepfake untuk meniru orang lain demi penipuan tidaklah sulit, karena memanfaatkan ketakutan dan ketidaktahuan pengguna. Oleh karena itu, pengguna perlu membekali diri dengan pengetahuan dasar untuk menghindarinya, dan tidak boleh mempercayai panggilan, pesan, atau email berisi konten yang mencurigakan. Jika Anda mendeteksi tanda-tanda penipuan, segera hubungi pihak berwenang untuk memverifikasi informasi dan melaporkannya ke kantor polisi terdekat.
[iklan_2]
Sumber






Komentar (0)