Orang jahat boleh menggunakan AI untuk menggabungkan foto dan video sensitif untuk memfitnah dan memeras ugut orang lain - Foto: Lukisan AI
Dahulu, apabila bercakap tentang teknik menggunting dan menampal muka seseorang ke badan orang lain, orang sering menggunakan photoshop atau perisian penyuntingan foto khusus - yang susah payah dan mudah dikenali dengan mata kasar.
Kini dengan alatan AI, orang ramai boleh melakukannya dengan sangat mudah dalam "beberapa nota" tetapi ia tidak mudah untuk dikesan dengan mata kasar.
Video seks bertukar muka untuk memeras ugut
Disebabkan hubungan kerja, Encik H. (pengarah perniagaan di Ho Chi Minh City) sering berinteraksi di rangkaian sosial.
Suatu ketika, dia berkawan dengan seorang gadis muda yang bertanya tentang kerjanya. Selepas beberapa ketika bertanyakan tentang satu sama lain, berbual, berkongsi tentang pekerjaan dan kehidupan peribadi, kedua-duanya kelihatan agak rapat antara satu sama lain.
Terdapat juga banyak mesej teks antara kedua-duanya dengan kata-kata yang sangat mesra, bersama-sama dengan gambar yang dihantar berulang-alik, dan panggilan video untuk melihat satu sama lain.
Pada suatu hari, Encik H. tiba-tiba menerima panggilan daripada seorang lelaki yang mengaku sebagai suami kepada gadis tersebut. Selepas tindakan "preemptive" terhadap Encik H., "suami" itu menuntut dia memindahkan wang pampasan atau dia akan menghantar foto sembang dan video seks mereka kepada saudara-mara dan rakan kongsi perniagaannya.
Kemudian Encik H. ditunjukkan video seks dia dan gadis lain oleh "suami"nya, bersama-sama dengan panggilan video antara keduanya, dan menangkap mesej teks intim...
"Saya tidak pernah berjumpa dengan gadis itu jadi saya pasti video seks itu adalah imej yang dipotret" - En. H. menegaskan. Walau bagaimanapun, imej wajah gadis dalam video seks dan gadis dalam panggilan videonya adalah sama, bersama-sama dengan gambar mesej teks penuh kasih sayang, memaksa Encik H. untuk memindahkan wang kepada "suami"nya berkali-kali untuk menjaga reputasinya.
Melalui penyiasatan Tuoi Tre , Encik H. telah ditipu secara tersusun mengikut senario yang sempurna. Dalam penipuan ini, Encik H. telah tertipu dua kali oleh deepfake. Kali pertama ialah panggilan video dan kali kedua ialah video seks.
Terutama, dalam video seks itu, wajah Encik H. dicantumkan dengan begitu mahir sehingga penonton sukar untuk mempercayai ia adalah video cantuman muka. Seorang pakar AI mengesahkan kepada Tuoi Tre bahawa orang jahat menggunakan alat AI baharu yang boleh mencantumkan wajah pada video dengan sempurna... seperti yang sebenar.
Alat AI menukar muka berlimpah
Pada masa ini terdapat banyak alat aplikasi AI yang mempunyai ciri seperti mencipta mana-mana orang dengan wajah yang diingini, dan menggabungkan wajah yang diingini ke badan orang lain.
Antaranya, terdapat alat dengan ciri yang mempunyai tujuan yang tidak baik seperti menukar foto biasa kepada foto bogel dengan "menanggalkan" orang dalam foto, atau menggantikan wajah seseorang dalam video dengan wajah yang diingini...
Kebanyakan alat AI ini tersedia untuk percubaan, tetapi membayarnya akan memberikan anda ciri penuh dengan masa transformasi yang sangat pantas.
Contohnya, dengan ciri bersemuka, pengguna hanya perlu memuat naik dua foto yang sepadan dan menunggu beberapa saat untuk mendapatkan keputusan.
Atau dengan ciri mencipta foto bogel daripada foto biasa, alat AI boleh melakukannya dengan pantas, dalam beberapa dozen saat sahaja, membuatkan penonton terkejut.
Malah ciri menggantikan wajah dalam video seks, alat AI melakukannya dengan sangat pantas, mengambil masa kurang daripada seminit untuk video berdurasi beberapa saat.
Bercakap dengan Tuoi Tre , Encik Nguyen Kim Tho, ketua pasukan penyelidikan dan pembangunan syarikat keselamatan siber VNetwork, menganalisis istilah deepfake, yang merujuk kepada video dan imej palsu yang dibuat menggunakan AI untuk membuat penonton berfikir bahawa ia adalah nyata.
Teknologi Deepfake menggunakan model pembelajaran mendalam seperti rangkaian saraf untuk menganalisis data muka dan suara seseorang serta mencipta kandungan palsu yang kelihatan sama persis dengan orang itu.
"Terima kasih kepada algoritma yang berkuasa, orang jahat boleh meletakkan muka mangsa ke dalam video sensitif (contohnya, video "katil", lucah) atau mengedit imej untuk mencipta foto bogel palsu.
Perisian dan aplikasi Deepfake kini sangat popular di Internet, walaupun dengan aplikasi mudah alih, kod sumber terbuka atau perkhidmatan dalam talian percuma - memudahkan sesiapa sahaja mengakses alatan untuk mencipta video dan foto palsu, jadi orang ramai perlu berwaspada," kata Encik Tho.
Jauhi "sembang seks"
Banyak penipuan bermula dengan berkawan dalam talian dan kemudian menipu mangsa untuk "sembang seks" atau menghantar gambar sensitif. Oleh itu, pengguna tidak boleh menghantar foto atau video peribadi kepada orang yang hanya mereka temui dalam talian, tidak kira apa janji atau ancaman yang mereka buat.
Sentiasa ingat bahawa sebarang kandungan yang dikongsi (walaupun melalui mesej peribadi) boleh dirakam (tangkapan skrin, video) dan kemudian diedit dan digunakan terhadap anda.
Jika anda membuat panggilan video, berhati-hati terhadap orang yang tidak dikenali yang meminta kandungan sensitif - ia mungkin skrin palsu atau mereka sedang merakam.
Pakar keselamatan siber menasihatkan pengguna supaya tidak mempercayai sesiapa hanya melalui hubungan dalam talian, dan mengesahkan identiti dan niat orang lain sebelum berkongsi apa-apa yang sensitif.
Selain itu, jika anda menerima mesej teks atau panggilan yang mengancam untuk mengeluarkan gambar "panas" untuk memeras ugut, pengguna tidak perlu takut atau tergesa-gesa untuk memindahkan wang.
Membayar tidak menjamin bahawa orang jahat akan memadamkan video; mereka mungkin terus menuntut lebih banyak atau menyiarkan kandungan dalam talian pula, kata pakar.
Daripada mengikuti permintaan penjenayah, pengguna harus mengumpul bukti (mesej, nombor telefon, akaun hubungan, kandungan mengancam...) dan segera melaporkan kepada agensi polis terdekat atau melaporkan kejadian itu melalui aplikasi VNeID Kementerian Keselamatan Awam untuk mendapatkan sokongan tepat pada masanya.
Bagaimana untuk mengenal pasti?
Menurut Encik Nguyen Kim Tho, membezakan antara imej dan video sebenar dan palsu dalam menjadi semakin sukar, tetapi masih terdapat beberapa tanda pengenalpastian dan alat sokongan.
Pengguna boleh memerhati secara manual, kerana kandungan deepfake kadangkala mempunyai kelainan pada imej dan bunyi.
Sebagai contoh, imej komposit mungkin menunjukkan bunyi atau perbezaan warna antara muka komposit dan badan. Video palsu mungkin mempunyai audio/video yang tidak sepadan (pergerakan bibir yang tidak sepadan dengan pertuturan) atau ekspresi muka yang kelihatan kaku dan tidak wajar.
Sebelum ini, beberapa video deepfake menjadikan watak tidak berkelip, atau pencahayaan dan bayang-bayang pada muka tidak sepadan dengan konteks - yang merupakan tanda bahawa video itu telah diedit.
Walaupun teknologi semakin bertambah baik (contohnya, deepfakes baharu telah menambah pergerakan mata yang realistik), penonton yang memerhati masih boleh melihat beberapa butiran yang tidak logik dalam video dan foto.
Penyelidik kini sedang membangunkan banyak algoritma untuk mengesan jejak palsu dalam secara automatik.
Kandungan yang dijana AI sering meninggalkan "cap jari digital" tersendiri dalam setiap piksel yang boleh dikenali oleh mesin.
Sebagai contoh, Intel telah memperkenalkan pengesan deepfake masa nyata pertama, yang mampu menganalisis video dan menentukan sama ada watak di dalamnya adalah orang sebenar atau dijana AI.
Selain itu, sesetengah tapak web membenarkan pengguna memuat naik video dan foto untuk menyemak ketulenan imej (contohnya, Perisian Dalam, Sensiti AI, dsb.). Sistem ini sentiasa dikemas kini untuk mengikuti teknik deepfake baharu.
Khususnya, pengguna boleh menyemak sumber siaran dan konteks apabila menemui video atau imej yang sensitif kerana banyak video palsu yang disebarkan melalui akaun atau bot palsu di rangkaian sosial.
"Jika kandungan sensitif tentang seseorang datang daripada sumber tidak rasmi atau akaun tanpa nama, ragu-ragu tentang kesahihannya. Anda mungkin mahu cuba menghubungi orang yang dipaparkan dalam kandungan secara terus untuk mengesahkan bahawa mereka benar-benar melakukannya.
Selain itu, projek seperti mempromosikan pembenaman maklumat pengesahan (tandatangan digital) ke dalam foto dan video sejurus selepas penciptaan, membantu membezakan kandungan asal daripada kandungan yang diedit. Pada masa hadapan, pengguna boleh menggunakan tanda pengesahan ini untuk mengenal pasti kandungan yang boleh dipercayai," kata Encik Tho.
5 nota untuk melindungi diri anda
1. Hadkan perkongsian foto dan video sensitif, peribadi (terutamanya foto bogel, foto keluarga, kanak-kanak).
2. Tetapkan akaun media sosial anda kepada peribadi (kongsi hanya dengan orang yang dipercayai).
3. Jangan berikan terlalu banyak maklumat peribadi (nama penuh, nombor telefon, alamat...) di rangkaian sosial awam.
4. Tetapkan kata laluan yang kukuh dan dayakan pengesahan dua langkah untuk akaun anda untuk mengelakkan daripada digodam.
5. Cari nama dan imej anda secara kerap di Google (atau gunakan alat carian imej terbalik seperti Google Image, TinEye) untuk melihat sama ada mana-mana foto anda telah disiarkan tanpa kebenaran, dan segera minta dialih keluar.
Sumber: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Komen (0)