Vietnam.vn - Nền tảng quảng bá Việt Nam

Menggunakan AI untuk memanipulasi imej sensitif bagi tujuan pemerasan.

Daripada gambar rekaan yang disiarkan di media sosial, pelaku berniat jahat boleh menggunakan kecerdasan buatan (AI) untuk mencipta imej yang tidak senonoh atau bogel, atau menindih wajah realistik pada video sensitif untuk memfitnah atau memeras ugut mangsa.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Pelakon berniat jahat boleh menggunakan AI untuk memanipulasi imej dan video sensitif bagi memfitnah atau memeras ugut orang lain - Foto: Lukisan AI.

Sebelum ini, apabila membincangkan teknik menindih wajah seseorang ke badan orang lain, orang ramai sering menggunakan Photoshop atau perisian penyuntingan foto khusus yang lain – yang memerlukan banyak tenaga kerja dan mudah dilihat dengan mata kasar.

Kini, dengan alatan AI, orang ramai boleh melakukannya dengan mudah dalam "beberapa saat", tetapi ia tidak mudah dikesan dengan mata kasar.

Tukar muka dalam video seks untuk ugut.

Disebabkan oleh hubungan kerja, Encik H. (pengarah perniagaan di Bandar Raya Ho Chi Minh) kerap berinteraksi di media sosial.

Pada suatu ketika, seorang wanita muda berkawan dengannya untuk bertanya tentang pekerjaannya. Selepas beberapa lama berbual dan berkongsi cerita tentang pekerjaan dan kehidupan peribadi, mereka menjadi agak rapat.

Terdapat juga banyak pesanan teks antara mereka berdua, dipenuhi dengan kata-kata sayang, berserta gambar yang dihantar berulang-alik, dan panggilan video supaya mereka dapat melihat wajah satu sama lain.

Pada suatu hari, Encik H. menerima panggilan daripada seseorang yang mendakwa dirinya sebagai suami gadis itu. Selepas sesi "amaran", "suami" itu menuntut agar Encik H. memindahkan wang pampasan atau mengambil risiko tangkapan skrin log sembang dan video seks mereka dihantar kepada saudara-mara dan rakan niaganya.

Kemudian Encik H. ditunjukkan video seksnya dan wanita lain oleh "suaminya", berserta video panggilan telefon mereka dan tangkapan skrin mesej teks intim mereka...

"Saya tidak pernah bertemu gadis itu, jadi saya pasti video seks itu disunting," tegas Encik H. Walau bagaimanapun, wajah gadis itu dalam video seks dan gadis dalam panggilan videonya adalah serupa, bersama-sama dengan tangkapan skrin mesej romantik, memaksa Encik H. berulang kali memindahkan wang kepada "suami" itu untuk melindungi reputasinya.

Menurut siasatan akhbar Tuoi Tre , Encik H. telah menjadi mangsa penipuan terancang susulan senario yang dirancang dengan sempurna. Dalam penipuan ini, Encik H. telah tertipu dua kali oleh teknologi deepfake. Kali pertama adalah panggilan video, dan yang kedua adalah video seks.

Hebatnya, dalam video seks itu, wajah Encik H. ditindih dengan begitu mahir sehingga penonton sukar untuk mempercayai bahawa ia adalah video palsu. Seorang pakar AI mengesahkan kepada akhbar Tuổi Trẻ bahawa pelaku menggunakan alat AI baharu yang mampu melapiskan wajah dengan sempurna pada video... menjadikannya kelihatan sangat realistik.

Terdapat banyak alat pertukaran wajah AI.

Kini terdapat banyak alat berkuasa AI dengan ciri-ciri seperti mencipta sebarang figura manusia dengan wajah yang diingini atau menindih wajah yang diingini pada badan orang lain.

Antara alat ini adalah alat yang mempunyai ciri-ciri yang bertujuan untuk tujuan yang berniat jahat, seperti mengubah gambar biasa menjadi gambar bogel dengan "menanggalkan" orang dalam foto tersebut, atau menggantikan wajah seseorang dalam video dengan wajah yang diingini...

Kebanyakan alat AI ini menawarkan tempoh percubaan; versi berbayar menyediakan fungsi penuh dan masa transformasi yang sangat pantas.

Contohnya, dengan ciri yang menukar wajah ke badan orang lain, pengguna hanya perlu memuat naik dua foto yang sepadan dan menunggu beberapa saat untuk hasilnya.

Atau, dengan ciri mencipta imej bogel daripada foto biasa, alatan AI boleh melakukannya dengan sangat pantas, hanya dalam beberapa puluh saat, mengejutkan penonton.

Malah ciri menggantikan wajah dalam video seks dilakukan dengan sangat pantas oleh alat AI, mengambil masa kurang daripada seminit untuk video yang hanya berdurasi beberapa saat.

Bercakap kepada akhbar Tuổi Trẻ , Encik Nguyen Kim Tho, ketua pasukan penyelidikan dan pembangunan di syarikat keselamatan siber VNetwork, menganalisis istilah "deepfake", yang merujuk kepada video dan imej palsu yang dihasilkan menggunakan AI untuk memperdaya penonton agar mempercayai bahawa ia adalah nyata.

Teknologi Deepfake menggunakan model pembelajaran mendalam seperti rangkaian saraf untuk menganalisis data wajah dan suara seseorang dan mencipta kandungan palsu yang kelihatan sama seperti orang itu.

"Terima kasih kepada algoritma yang berkuasa, pelaku jahat boleh menindih wajah mangsa pada video sensitif (contohnya, video seks, pornografi) atau mengedit imej untuk menghasilkan gambar bogel palsu."

"Perisian dan aplikasi Deepfake kini sangat biasa di Internet, termasuk aplikasi mudah alih, perisian sumber terbuka atau perkhidmatan dalam talian percuma – memudahkan sesiapa sahaja untuk mengakses alat bagi mencipta video dan foto palsu, jadi orang ramai perlu berwaspada," kata Encik Tho.

Jauhi "sembang seks".

Banyak penipuan bermula dengan berkawan dengan orang dalam talian dan kemudian memikat mangsa untuk "sembang seks" atau menghantar gambar sensitif. Oleh itu, pengguna sama sekali tidak seharusnya menghantar imej atau video peribadi kepada orang yang hanya mereka kenali dalam talian, tanpa mengira janji atau ugutan.

Sentiasa ingat bahawa sebarang kandungan yang anda kongsikan (walaupun melalui mesej peribadi) boleh dirakam (tangkapan skrin, video) dan kemudian disunting dan digunakan untuk menentang anda.

Jika anda membuat panggilan video, berhati-hati dengan orang yang tidak dikenali yang menawarkan kandungan sensitif – ia mungkin skrin palsu atau mereka sedang merakam anda.

Pakar keselamatan siber menasihati pengguna supaya tidak mempercayai sesiapa pun semata-mata berdasarkan interaksi dalam talian dan mengesahkan identiti dan niat pihak lain sebelum berkongsi apa-apa yang sensitif.

Di samping itu, jika anda menerima mesej ugutan atau menghubungi pihak berkuasa tentang pendedahan gambar "bogel" untuk tujuan pemerasan, anda tidak perlu takut atau tergesa-gesa untuk memindahkan wang.

Menurut pakar, membayar wang tidak menjamin pelaku akan memadamkan video tersebut; mereka mungkin terus menuntut lebih banyak atau masih memuat naik kandungan tersebut dalam talian.

Daripada mematuhi tuntutan penjenayah, pengguna harus mengumpulkan bukti (mesej, nombor telefon, akaun kenalan, kandungan ugutan, dll.) dan segera melaporkannya ke balai polis terdekat atau melaporkan kejadian tersebut melalui aplikasi VNeID Kementerian Keselamatan Awam untuk mendapatkan bantuan tepat pada masanya.

Bagaimanakah kita boleh mengenal pasti mereka?

Menurut Encik Nguyen Kim Tho, membezakan antara imej dan video sebenar dan palsu semakin sukar, tetapi masih terdapat beberapa tanda dan alat pengenalpastian untuk membantu.

Pengguna boleh memerhatikannya secara manual, kerana kandungan deepfake kadangkala mempunyai anomali visual dan audio.

Contohnya, imej komposit mungkin mendedahkan perbezaan hingar dan warna antara muka dan badan yang ditindih. Video palsu mungkin mempunyai audio dan video yang tidak sepadan (pergerakan bibir tidak sepadan dengan pertuturan) atau ekspresi muka yang kelihatan kaku dan tidak semula jadi.

Sebelum ini, beberapa video deepfake menunjukkan watak tidak berkelip, atau pencahayaan dan bayang-bayang di wajah mereka tidak sepadan dengan latar belakang – ini adalah tanda-tanda bahawa video itu telah diedit.

Walaupun teknologi semakin bertambah baik (contohnya, deepfake baharu telah menambah pergerakan berkelip yang realistik), penonton yang arif masih boleh melihat beberapa butiran yang tidak logik dalam video dan foto.

Para penyelidik kini sedang membangunkan pelbagai algoritma untuk mengesan kesan deepfake secara automatik.

Kandungan yang dijana AI sering meninggalkan "cap jari digital" yang unik pada setiap piksel yang boleh dikenali oleh mesin.

Sebagai contoh, Intel telah memperkenalkan pengesan deepfake masa nyata yang pertama, yang mampu menganalisis video dan menentukan sama ada watak-watak di dalamnya adalah orang sebenar atau dijana oleh AI.

Selain itu, sesetengah laman web membenarkan pengguna memuat naik video dan foto untuk memeriksa kesahihannya (contohnya, Deepware, Sensity AI...). Sistem ini sentiasa dikemas kini untuk mengikuti teknik deepfake baharu.

Khususnya, pengguna boleh menyemak sumber dan konteks apabila menemui video atau imej sensitif, kerana banyak video deepfake disebarkan melalui akaun palsu atau bot di media sosial.

"Jika kandungan sensitif tentang seseorang berasal daripada sumber tidak rasmi atau akaun tanpa nama, kesahihannya harus dipersoalkan. Mungkin berbaloi untuk cuba menghubungi orang yang dipaparkan dalam kandungan tersebut secara langsung untuk mengesahkan sama ada mereka benar-benar melakukannya."

Tambahan pula, projek seperti ini menggalakkan penyematan maklumat pengesahan (tandatangan digital) ke dalam imej dan video terus dari penciptaan, membantu membezakan antara kandungan asal dan kandungan yang diedit. Pada masa hadapan, pengguna mungkin boleh menggunakan penanda pengesahan ini untuk mengenal pasti kandungan yang boleh dipercayai," kata Encik Tho.

5 petua untuk perlindungan diri

1. Hadkan perkongsian foto dan video sensitif dan peribadi (terutamanya foto bogel, foto keluarga dan foto kanak-kanak).

2. Tetapkan akaun media sosial anda kepada peribadi (kongsi hanya dengan orang yang dipercayai).

3. Elakkan memberikan terlalu banyak maklumat peribadi (nama penuh, nombor telefon, alamat, dll.) di media sosial awam.

4. Tetapkan kata laluan yang kukuh dan dayakan pengesahan dua faktor untuk akaun anda bagi mengelakkan penggodaman.

5. Cari nama dan imej anda secara berkala di Google (atau gunakan alat carian imej terbalik seperti Google Image atau TinEye) untuk melihat sama ada mana-mana foto anda telah disiarkan secara haram, dan segera minta penyingkirannya.

Baca lebih lanjut Kembali ke Laman Utama
KEBAJIKAN

Sumber: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Komen (0)

Sila tinggalkan komen untuk berkongsi perasaan anda!

Dalam kategori yang sama

Kagumi gereja-gereja yang mempesonakan, tempat daftar masuk yang 'sangat popular' pada musim Krismas ini.
'Katedral Merah Jambu' yang berusia 150 tahun itu bersinar terang pada musim Krismas ini.
Di restoran pho Hanoi ini, mereka membuat mi pho mereka sendiri dengan harga 200,000 VND, dan pelanggan mesti memesan terlebih dahulu.
Suasana Krismas meriah di jalan-jalan di Hanoi.

Daripada pengarang yang sama

Warisan

Rajah

Perniagaan

Bintang Krismas setinggi 8 meter yang menerangi Katedral Notre Dame di Bandar Raya Ho Chi Minh amat menarik perhatian.

Peristiwa semasa

Sistem Politik

Tempatan

Produk