Deepfake kini menjadi kebimbangan utama kerana bilangan penipuan berasaskan teknologi terus meningkat.
Selepas meneliti forum Darknet, di mana penjenayah siber sering beroperasi, pakar keselamatan mendapati bahawa terdapat begitu ramai penjenayah menggunakan Deepfake untuk penipuan sehingga permintaan jauh melebihi bekalan perisian Deepfake pada masa ini di pasaran.
Memandangkan permintaan melebihi bekalan, pakar Kaspersky meramalkan bahawa penipuan Deepfake akan meningkat, dengan bentuk yang lebih pelbagai dan canggih: daripada menawarkan video penyamaran berkualiti tinggi kepada menggunakan imej selebriti dalam strim langsung media sosial palsu, berjanji untuk membayar dua kali ganda jumlah yang dihantar mangsa.
Menurut sistem rujukan maklumat Regula, 37% perniagaan di seluruh dunia telah mengalami penipuan suara Deepfake dan 29% telah menjadi mangsa kepada video Deepfake.
Teknologi ini telah menjadi ancaman kepada keselamatan siber di Vietnam, di mana penjenayah siber sering menggunakan panggilan video palsu untuk menyamar sebagai individu untuk meminjam wang daripada saudara dan rakan mereka.
Panggilan video Deepfake boleh bertahan hanya seminit, menyukarkan mangsa untuk membezakan antara sebenar dan palsu.
Deepfake secara beransur-ansur menjadi "mimpi ngeri" dalam penipuan dalam talian yang canggih.
" Deepfake telah menjadi mimpi ngeri bagi wanita dan masyarakat. Penjenayah siber mengeksploitasi kecerdasan buatan (AI) untuk memasukkan wajah mangsa ke dalam foto dan video lucah, serta dalam kempen propaganda.
Borang ini bertujuan untuk memanipulasi pendapat umum dengan menyebarkan maklumat palsu, malah merosakkan reputasi organisasi atau individu, ” kata Cik Vo Duong Tu Diem, Pengarah Wilayah Vietnam Kaspersky.
Walaupun AI disalahgunakan oleh penjenayah untuk tujuan jahat, individu dan perniagaan masih boleh menggunakan kecerdasan buatan itu sendiri untuk mengenal pasti Deepfakes, mengurangkan kebarangkalian kejayaan penipuan.
Sehubungan itu, pengguna akan mempunyai beberapa penyelesaian berguna untuk melindungi diri mereka daripada penipuan seperti menggunakan perisian pengesanan kandungan yang dijana AI (menggunakan algoritma lanjutan untuk menganalisis dan menentukan tahap penyuntingan imej/video/bunyi).
Untuk video Deepfake, terdapat alat yang tersedia yang boleh mengesan pergerakan mulut dan pertuturan yang tidak sepadan. Sesetengah program juga cukup berkuasa untuk mengesan aliran darah yang tidak normal di bawah kulit dengan menganalisis resolusi video kerana urat manusia berubah warna apabila jantung mengepam darah.
Selain itu, terdapat juga tera air yang bertindak sebagai tanda pengenalan dalam imej, video, dsb. untuk membantu pengarang melindungi hak cipta produk AI. Ciri ini boleh menjadi senjata menentang Deepfake kerana ia membantu mengesan asal usul platform yang mencipta kecerdasan buatan. Pengguna yang mempunyai tahap pengetahuan teknologi boleh mencari cara untuk mengesan asal usul kandungan untuk membandingkan cara data asal telah diedit oleh "tangan" AI.
Pada masa ini, beberapa teknologi baru muncul menggunakan algoritma penyulitan untuk memasukkan nilai cincang pada selang masa yang ditetapkan dalam video. Jika video telah diedit, nilai cincang akan berubah dan dari situ pengguna boleh mengesahkan sama ada kandungan tersebut telah diganggu atau tidak.
Terdapat beberapa tutorial pada masa lalu tentang mencari anomali dalam video, sebagai contoh, sisihan warna, pergerakan luar biasa kumpulan otot, mata... Walau bagaimanapun, AI semakin pintar jadi nilai ini tidak selalu memberikan hasil yang betul.
Proses mengesahkan kebolehpercayaan video tidak lagi berdasarkan mata kasar tetapi memerlukan alat teknologi yang dicipta dengan tujuan untuk mencegah dan mengesan kandungan palsu.
Khanh Linh
Sumber
Komen (0)