Vietnam.vn - Nền tảng quảng bá Việt Nam

Menggunakan AI untuk menggabungkan gambar sensitif untuk pemerasan

Dari foto virtual yang diunggah di media sosial, orang jahat dapat menggunakan alat kecerdasan buatan (AI) untuk membuat foto seksi, bahkan telanjang, atau memasukkan wajah realistis ke dalam video sensitif untuk mencemarkan nama baik dan memeras korban.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Orang jahat dapat menggunakan AI untuk menggabungkan foto dan video sensitif untuk mencemarkan nama baik dan memeras orang lain - Foto: Gambar AI

Di masa lalu, ketika berbicara tentang teknik memotong dan menempel wajah seseorang ke tubuh orang lain, orang sering menggunakan photoshop atau perangkat lunak penyuntingan foto khusus - yang melelahkan dan mudah dikenali oleh mata telanjang.

Sekarang dengan alat AI, orang dapat melakukan hal itu dengan sangat mudah dalam "beberapa catatan" tetapi tidak mudah untuk dideteksi dengan mata telanjang.

Video seks tukar wajah untuk pemerasan

Karena koneksi pekerjaan, Tn. H. (direktur sebuah bisnis di Kota Ho Chi Minh) sering berinteraksi di jejaring sosial.

Suatu ketika, ia berteman dengan seorang gadis muda yang bertanya tentang pekerjaannya. Setelah beberapa lama saling bertanya, mengobrol, dan berbagi tentang pekerjaan dan kehidupan pribadi, keduanya tampak cukup dekat.

Ada juga banyak pesan teks antara keduanya dengan kata-kata yang sangat mesra, disertai gambar yang saling berkirim, dan panggilan video untuk saling bertemu.

Suatu hari, Tuan H. tiba-tiba menerima telepon dari seorang pria yang mengaku sebagai suami gadis tersebut. Setelah melakukan tindakan "pencegahan" terhadap Tuan H., "suami" tersebut menuntut agar ia mentransfer uang kompensasi atau ia akan mengirimkan foto-foto obrolan dan video seks mereka kepada kerabat dan mitra bisnisnya.

Lalu, Tn. H. diperlihatkan video seks dirinya dan gadis lain oleh "suaminya", disertai panggilan video antara keduanya, dan pesan teks intim yang terekam...

"Saya belum pernah bertemu gadis itu, jadi saya yakin video seks itu hasil editan," tegas Tuan H. Namun, wajah gadis di video seks dan gadis di panggilan videonya sama, begitu pula foto pesan singkat mesranya, yang memaksa Tuan H. untuk mentransfer uang kepada "suaminya" berkali-kali demi menjaga reputasinya.

Melalui investigasi Tuoi Tre , Tn. H. ditipu secara terorganisir dengan skenario yang sempurna. Dalam penipuan ini, Tn. H. ditipu dua kali melalui deepfake. Pertama melalui panggilan video dan kedua melalui video seks.

Menariknya, dalam video seks tersebut, wajah Tuan H. dicangkok dengan sangat terampil sehingga penonton sulit mempercayai bahwa itu adalah video cangkok wajah. Seorang pakar AI mengonfirmasi kepada Tuoi Tre bahwa para penjahat menggunakan alat AI baru yang dapat mencangkok wajah ke dalam video dengan sempurna... seperti wajah asli.

Alat AI untuk mengganti wajah sudah banyak tersedia

Saat ini sudah banyak aplikasi alat AI yang mempunyai fitur seperti membuat seseorang dengan wajah yang diinginkan, dan menggabungkan wajah yang diinginkan ke tubuh orang lain.

Di antaranya, ada alat yang fiturnya ditujukan untuk tujuan buruk, seperti mengubah foto biasa menjadi foto telanjang dengan "menelanjangi" orang dalam foto, atau mengganti wajah orang dalam video dengan wajah yang diinginkan...

Sebagian besar alat AI ini tersedia untuk uji coba, tetapi dengan membayarnya, Anda akan mendapatkan fitur lengkap dengan waktu transformasi yang sangat cepat.

Misalnya, dengan fitur tatap muka, pengguna hanya perlu mengunggah dua foto yang sesuai dan menunggu beberapa detik untuk hasilnya.

Atau dengan fitur membuat foto bugil dari foto normal, alat AI tersebut dapat melakukannya dengan sangat cepat, hanya dalam hitungan belasan detik saja, membuat pemirsa tercengang.

Bahkan fitur penggantian wajah dalam video seks, alat AI melakukannya dengan sangat cepat, membutuhkan waktu kurang dari satu menit untuk video yang berdurasi beberapa detik.

Berbicara dengan Tuoi Tre , Tn. Nguyen Kim Tho, kepala tim penelitian dan pengembangan perusahaan keamanan siber VNetwork, menganalisis istilah deepfake, yang merujuk pada video dan gambar palsu yang dibuat menggunakan AI untuk membuat pemirsa berpikir bahwa itu nyata.

Teknologi deepfake menggunakan model pembelajaran mendalam seperti jaringan saraf untuk menganalisis data wajah dan suara seseorang dan membuat konten palsu yang terlihat persis seperti orang tersebut.

Berkat algoritma yang canggih, penjahat bisa memasukkan wajah korban ke dalam video sensitif (misalnya, video "ranjang", porno) atau mengedit gambar untuk membuat foto telanjang palsu.

"Perangkat lunak dan aplikasi deepfake sekarang sangat populer di Internet, bahkan dengan aplikasi seluler, kode sumber terbuka, atau layanan daring gratis - memudahkan siapa saja untuk mengakses alat untuk membuat video dan foto palsu, jadi orang perlu waspada," kata Tn. Tho.

Jauhi "obrolan seks"

Banyak penipuan yang dimulai dengan mencari teman daring, lalu mengelabui korban untuk "obrolan seks" atau mengirimkan foto-foto sensitif. Oleh karena itu, pengguna sebaiknya tidak pernah mengirimkan foto atau video pribadi kepada orang yang hanya mereka temui daring, terlepas dari janji atau ancaman yang mereka buat.

Selalu ingat bahwa konten apa pun yang dibagikan (bahkan melalui pesan pribadi) dapat direkam (tangkapan layar, video) lalu diedit dan digunakan untuk melawan Anda.

Jika Anda melakukan panggilan video, waspadalah terhadap orang asing yang meminta konten sensitif - itu bisa saja layar palsu atau mereka sedang merekam.

Pakar keamanan siber memberi saran kepada pengguna untuk tidak pernah memercayai siapa pun hanya melalui kontak daring, dan untuk memverifikasi identitas dan niat orang lain sebelum membagikan sesuatu yang sensitif.

Selain itu, jika menerima pesan teks atau panggilan yang mengancam akan menyebarkan foto "panas" untuk pemerasan, pengguna tidak perlu takut atau terburu-buru mentransfer uang.

Membayar tidak menjamin bahwa orang jahat akan menghapus video; mereka mungkin terus menuntut lebih banyak atau tetap memposting konten tersebut secara daring, kata para ahli.

Daripada menuruti permintaan penjahat, pengguna sebaiknya mengumpulkan bukti (pesan, nomor telepon, akun kontak, konten yang mengancam...) dan segera melaporkannya ke kantor polisi terdekat atau melaporkan kejadian tersebut melalui aplikasi VNeID milik Kementerian Keamanan Publik untuk mendapatkan dukungan yang cepat.

Bagaimana cara mengidentifikasi?

Menurut Tn. Nguyen Kim Tho, membedakan antara gambar dan video asli dengan deepfake menjadi semakin sulit, tetapi masih ada beberapa tanda pengenal dan alat pendukung.

Pengguna dapat mengamati secara manual, karena konten deepfake terkadang memiliki kelainan pada gambar dan suara.

Misalnya, gambar komposit mungkin menunjukkan noise atau perbedaan warna antara wajah dan tubuh komposit. Video palsu mungkin memiliki ketidaksesuaian audio dan video (gerakan bibir yang tidak sesuai dengan ucapan) atau ekspresi wajah yang tampak kaku dan tidak alami.

Sebelumnya, beberapa video deepfake membuat karakter tidak berkedip, atau pencahayaan dan bayangan pada wajah tidak sesuai konteks - yang merupakan tanda bahwa video tersebut diedit.

Meskipun teknologi semakin maju (misalnya, deepfake baru telah menambahkan gerakan kedipan mata yang realistis), pemirsa yang jeli masih dapat melihat beberapa detail yang tidak logis dalam video dan foto.

Para peneliti kini tengah mengembangkan banyak algoritma untuk mendeteksi jejak deepfake secara otomatis.

Konten yang dihasilkan AI sering kali meninggalkan “sidik jari digital” yang khas di setiap piksel yang dapat dikenali oleh mesin.

Misalnya, Intel telah memperkenalkan detektor deepfake real-time pertama, yang mampu menganalisis video dan menentukan apakah karakter di dalamnya adalah orang sungguhan atau buatan AI.

Selain itu, beberapa situs web memungkinkan pengguna mengunggah video dan foto untuk memeriksa keaslian gambar (misalnya, Deepware, Sensity AI, dan sebagainya). Sistem ini terus diperbarui agar sesuai dengan teknik deepfake terbaru.

Secara khusus, pengguna dapat memeriksa sumber postingan dan konteksnya saat menemukan video atau gambar sensitif karena banyak video deepfake disebarkan melalui akun atau bot palsu di jejaring sosial.

Jika konten sensitif tentang seseorang berasal dari sumber tidak resmi atau akun anonim, Anda sebaiknya meragukan keasliannya. Anda mungkin ingin mencoba menghubungi orang yang ditampilkan dalam konten tersebut secara langsung untuk memverifikasi bahwa mereka benar-benar melakukannya.

"Selain itu, proyek-proyek seperti ini mendorong penyematan informasi autentikasi (tanda tangan digital) ke dalam foto dan video langsung sejak pembuatannya, yang membantu membedakan konten asli dari konten hasil suntingan. Ke depannya, pengguna dapat menggunakan tanda autentikasi ini untuk mengidentifikasi konten yang tepercaya," ujar Bapak Tho.

5 catatan untuk melindungi diri Anda sendiri

1. Batasi pembagian foto dan video yang sensitif dan pribadi (terutama foto telanjang, foto keluarga, anak-anak).

2. Atur akun media sosial Anda menjadi pribadi (bagikan hanya dengan orang-orang tepercaya).

3. Jangan memberikan terlalu banyak informasi pribadi (nama lengkap, nomor telepon, alamat...) di jejaring sosial publik.

4. Tetapkan kata sandi yang kuat dan aktifkan verifikasi dua langkah untuk akun Anda guna menghindari peretasan.

5. Cari nama dan gambar Anda secara teratur di Google (atau gunakan alat pencarian gambar terbalik seperti Google Image, TinEye) untuk melihat apakah ada foto Anda yang diposting tanpa izin, dan segera minta penghapusannya.

Baca selengkapnya Kembali ke Topik
KEBAJIKAN

Sumber: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Komentar (0)

No data
No data

Dalam kategori yang sama

Kota Ho Chi Minh: Jalan Lentera Luong Nhu Hoc Berwarna-warni Menyambut Festival Pertengahan Musim Gugur
Menjaga semangat Festival Pertengahan Musim Gugur melalui warna-warna patung
Temukan satu-satunya desa di Vietnam yang masuk dalam 50 desa terindah di dunia
Mengapa lentera bendera merah dengan bintang kuning populer tahun ini?

Dari penulis yang sama

Warisan

Angka

Bisnis

No videos available

Berita

Sistem Politik

Lokal

Produk