
Pelaku jahat dapat menggunakan AI untuk memanipulasi gambar dan video sensitif guna mencemarkan nama baik atau memeras orang lain - Foto: Gambar AI.
Sebelumnya, ketika membahas teknik menempelkan wajah seseorang ke tubuh orang lain, orang sering menggunakan Photoshop atau perangkat lunak pengeditan foto khusus lainnya – yang memakan banyak waktu dan mudah terlihat oleh mata telanjang.
Sekarang, dengan alat AI, orang dapat melakukan itu dengan sangat mudah dalam "beberapa saat," tetapi hal itu tidak mudah dideteksi dengan mata telanjang.
Pertukaran wajah dalam video seks untuk pemerasan.
Karena koneksi pekerjaan, Bapak H. (direktur sebuah perusahaan di Kota Ho Chi Minh) sering berinteraksi di media sosial.
Pada suatu kesempatan, seorang wanita muda berteman dengannya untuk menanyakan tentang pekerjaannya. Setelah beberapa waktu mengobrol dan berbagi cerita tentang pekerjaan dan kehidupan pribadi, mereka menjadi cukup dekat.
Ada juga banyak pesan teks di antara keduanya, yang dipenuhi dengan kata-kata penuh kasih sayang, beserta gambar yang dikirim bolak-balik, dan panggilan video agar mereka bisa melihat wajah satu sama lain.
Suatu hari, Tuan H. menerima telepon dari seseorang yang mengaku sebagai suami gadis itu. Setelah sesi "peringatan", "suami" tersebut menuntut agar Tuan H. mentransfer uang kompensasi atau berisiko tangkapan layar percakapan dan video seks mereka dikirimkan kepada kerabat dan mitra bisnisnya.
Kemudian, Tuan H. diperlihatkan video seks dirinya dan wanita lain oleh "suaminya," beserta video percakapan telepon mereka dan tangkapan layar pesan teks intim mereka...
"Saya belum pernah bertemu gadis itu, jadi saya yakin video seks itu diedit," tegas Tuan H. Namun, wajah gadis dalam video seks dan gadis dalam panggilan videonya identik, begitu pula tangkapan layar pesan-pesan romantis, yang memaksa Tuan H. untuk berulang kali mentransfer uang kepada "suami" tersebut untuk melindungi reputasinya.
Menurut investigasi surat kabar Tuoi Tre , Bapak H. menjadi korban penipuan terorganisir yang mengikuti rencana yang dirancang dengan sempurna. Dalam penipuan ini, Bapak H. tertipu dua kali menggunakan teknologi deepfake. Pertama kali melalui panggilan video, dan kedua kalinya melalui video seks.
Yang perlu diperhatikan, dalam video seks tersebut, wajah Tuan H. ditambahkan dengan sangat terampil sehingga penonton sulit percaya bahwa itu adalah video palsu. Seorang ahli AI mengkonfirmasi kepada surat kabar Tuổi Trẻ bahwa pelaku menggunakan alat AI baru yang mampu menambahkan wajah ke video dengan sempurna... membuatnya tampak sangat realistis.
Ada banyak sekali alat pertukaran wajah berbasis AI.
Saat ini terdapat banyak alat berbasis AI dengan fitur-fitur seperti menciptakan figur manusia apa pun dengan wajah yang diinginkan, atau menempatkan wajah yang diinginkan di atas tubuh orang lain.
Di antara alat-alat ini terdapat alat-alat dengan fitur yang bertujuan jahat, seperti mengubah foto biasa menjadi gambar telanjang dengan "menelanjangi" orang dalam foto tersebut, atau mengganti wajah seseorang dalam video dengan wajah yang diinginkan...
Sebagian besar alat AI ini menawarkan masa percobaan; versi berbayar menyediakan fungsionalitas penuh dan waktu transformasi yang sangat cepat.
Sebagai contoh, dengan fitur yang menukar wajah ke tubuh orang lain, pengguna cukup mengunggah dua foto yang sesuai dan menunggu beberapa detik untuk hasilnya.
Atau, dengan fitur pembuatan gambar telanjang dari foto biasa, alat AI dapat melakukannya dengan sangat cepat, hanya dalam beberapa puluh detik, mengejutkan para penonton.
Bahkan fitur penggantian wajah dalam video seks pun dilakukan dengan sangat cepat oleh alat AI, hanya membutuhkan waktu kurang dari satu menit untuk video yang hanya berdurasi beberapa detik.
Dalam wawancara dengan surat kabar Tuổi Trẻ , Bapak Nguyen Kim Tho, kepala tim penelitian dan pengembangan di perusahaan keamanan siber VNetwork, menganalisis istilah "deepfake," yang merujuk pada video dan gambar palsu yang dibuat menggunakan AI untuk menipu pemirsa agar percaya bahwa itu nyata.
Teknologi deepfake menggunakan model pembelajaran mendalam seperti jaringan saraf untuk menganalisis data wajah dan suara seseorang dan membuat konten palsu yang terlihat persis seperti orang tersebut.
"Berkat algoritma yang canggih, pelaku kejahatan dapat menempelkan wajah korban ke video sensitif (misalnya, video seks, pornografi) atau mengedit gambar untuk membuat foto telanjang palsu."
"Perangkat lunak dan aplikasi deepfake kini sangat umum di internet, bahkan termasuk aplikasi seluler, perangkat lunak sumber terbuka, atau layanan daring gratis – sehingga memudahkan siapa pun untuk mengakses alat untuk membuat video dan foto palsu, jadi masyarakat perlu waspada," kata Bapak Tho.
Jauhi "obrolan seks".
Banyak penipuan dimulai dengan berteman dengan orang-orang secara online dan kemudian memikat korban ke dalam "obrolan seks" atau mengirimkan foto-foto sensitif. Oleh karena itu, pengguna sama sekali tidak boleh mengirimkan gambar atau video pribadi kepada orang yang hanya mereka kenal secara online, terlepas dari janji atau ancaman apa pun.
Ingatlah selalu bahwa konten apa pun yang Anda bagikan (bahkan melalui pesan pribadi) dapat direkam (tangkapan layar, video) dan kemudian diedit serta digunakan untuk melawan Anda.
Jika Anda melakukan panggilan video, waspadai orang asing yang menawarkan konten sensitif – bisa jadi itu layar palsu atau mereka sedang merekam Anda.
Para ahli keamanan siber menyarankan pengguna untuk sama sekali menghindari mempercayai siapa pun hanya berdasarkan interaksi daring dan untuk memverifikasi identitas dan niat pihak lain sebelum membagikan informasi sensitif apa pun.
Selain itu, jika Anda menerima pesan atau panggilan yang mengancam tentang penyebaran foto "telanjang" untuk pemerasan, Anda tidak perlu takut atau terburu-buru mentransfer uang.
Menurut para ahli, membayar uang tidak menjamin pelaku akan menghapus video tersebut; mereka mungkin terus menuntut lebih banyak atau tetap mengunggah konten tersebut secara online.
Alih-alih menuruti tuntutan para penjahat, pengguna sebaiknya mengumpulkan bukti (pesan, nomor telepon, akun kontak, konten yang mengancam, dll.) dan segera melaporkannya ke kantor polisi terdekat atau melaporkan kejadian tersebut melalui aplikasi VNeID Kementerian Keamanan Publik untuk mendapatkan bantuan tepat waktu.
Bagaimana kita bisa mengidentifikasi mereka?
Menurut Bapak Nguyen Kim Tho, membedakan antara gambar dan video asli dan deepfake semakin sulit, tetapi masih ada beberapa tanda dan alat bantu untuk mengidentifikasinya.
Pengguna dapat mengamati hal ini secara manual, karena konten deepfake terkadang memiliki anomali visual dan audio.
Sebagai contoh, gambar komposit mungkin mengungkapkan noise dan perbedaan warna antara wajah dan tubuh yang ditumpangkan. Video palsu mungkin memiliki audio dan video yang tidak sesuai (gerakan bibir tidak sesuai dengan ucapan) atau ekspresi wajah yang tampak kaku dan tidak alami.
Sebelumnya, beberapa video deepfake menunjukkan karakter yang tidak berkedip, atau pencahayaan dan bayangan di wajah mereka tidak sesuai dengan latar belakang – ini adalah tanda bahwa video tersebut telah diedit.
Meskipun teknologi terus berkembang (misalnya, deepfake terbaru telah menambahkan gerakan berkedip yang realistis), penonton yang jeli masih dapat menemukan beberapa detail yang tidak logis dalam video dan foto.
Para peneliti kini sedang mengembangkan berbagai algoritma untuk mendeteksi jejak deepfake secara otomatis.
Konten yang dihasilkan AI sering kali meninggalkan "sidik jari digital" unik pada setiap piksel yang dapat dikenali oleh mesin.
Sebagai contoh, Intel telah memperkenalkan detektor deepfake waktu nyata pertama, yang mampu menganalisis video dan menentukan apakah karakter di dalamnya adalah orang sungguhan atau hasil buatan AI.
Selain itu, beberapa situs web memungkinkan pengguna untuk mengunggah video dan foto untuk memeriksa keasliannya (misalnya, Deepware, Sensity AI...). Sistem ini terus diperbarui untuk mengikuti teknik deepfake terbaru.
Secara khusus, pengguna dapat memeriksa sumber dan konteks ketika menemukan video atau gambar yang sensitif, karena banyak video deepfake disebarkan melalui akun palsu atau bot di media sosial.
"Jika konten sensitif tentang seseorang berasal dari sumber tidak resmi atau akun anonim, keasliannya harus dipertanyakan. Mungkin ada baiknya mencoba menghubungi orang yang ditampilkan dalam konten tersebut secara langsung untuk memverifikasi apakah mereka benar-benar melakukannya."
Selain itu, proyek-proyek seperti ini mendorong penyematan informasi otentikasi (tanda tangan digital) ke dalam gambar dan video sejak awal pembuatan, membantu membedakan antara konten asli dan konten yang diedit. Di masa depan, pengguna mungkin dapat menggunakan penanda otentikasi ini untuk mengidentifikasi konten yang dapat dipercaya," kata Bapak Tho.
5 tips untuk melindungi diri
1. Batasi berbagi foto dan video yang sensitif dan bersifat pribadi (terutama foto telanjang, foto keluarga, dan foto anak-anak).
2. Atur akun media sosial Anda menjadi privat (hanya bagikan dengan orang yang Anda percayai).
3. Hindari memberikan terlalu banyak informasi pribadi (nama lengkap, nomor telepon, alamat, dll.) di media sosial publik.
4. Tetapkan kata sandi yang kuat dan aktifkan otentikasi dua faktor untuk akun Anda guna mencegah peretasan.
5. Lakukan pencarian nama dan gambar Anda secara berkala di Google (atau gunakan alat pencarian gambar terbalik seperti Google Image atau TinEye) untuk melihat apakah ada foto Anda yang telah diunggah secara ilegal, dan segera minta penghapusannya.
Sumber: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm






Komentar (0)