Vietnam.vn - Nền tảng quảng bá Việt Nam

Penipuan suara deepfake semakin canggih, apa yang harus dilakukan?

Teknologi suara deepfake memungkinkan orang meniru suara yang identik dengan orang sungguhan, menyebabkan banyak orang terjebak dalam keyakinan terhadap suara yang familiar.

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

Penipuan dengan meniru suara dengan suara deepfake

Di era kecerdasan buatan yang berkembang pesat, suara—salah satu faktor yang dulu dianggap sebagai bukti otentik—kini telah menjadi alat berbahaya di tangan orang jahat. Teknologi suara deepfake memungkinkan suara palsu yang identik dengan orang sungguhan, menciptakan panggilan palsu yang canggih untuk menipu dan merampas hak milik.

Mengapa suara deepfake menakutkan?

Suara deepfake adalah teknologi yang menerapkan kecerdasan buatan (AI) dan pembelajaran mesin untuk menciptakan suara palsu yang identik dengan suara orang sungguhan.

Dengan dukungan model modern seperti Tacotron, WaveNet, ElevenLabs atau platform kloning suara seperti Respeecher, penipu hanya memerlukan sampel suara 3 - 10 detik untuk membuat deepfake yang 95% dapat diandalkan.

Suara deepfake menjadi sangat berbahaya karena kemampuannya meniru suara hampir sempurna, mulai dari pengucapan, intonasi hingga kebiasaan berbicara unik setiap orang.

Hal ini membuat para korban sangat sulit membedakan mana suara asli dan mana suara palsu, terutama jika suara tersebut milik saudara, sahabat, atau atasan.

Penambangan suara juga sangat mudah, karena kebanyakan orang saat ini mengekspos audio mereka melalui platform seperti TikTok, siaran langsung media sosial, podcast, atau rapat online. Yang lebih mengkhawatirkan, suara deepfake tidak meninggalkan jejak visual seperti gambar atau video , sehingga menyulitkan investigasi dan korban rentan kehilangan uang.

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

Hanya beberapa detik sampel suara dapat membuat deepfake

Penipuan suara deepfake menjadi semakin canggih, sering kali menggunakan skenario yang sudah dikenal: meniru suara seorang kenalan dalam situasi darurat untuk menciptakan kepanikan dan menekan korban agar segera mentransfer uang.

Di Vietnam, ada kasus seorang ibu yang menerima telepon dari "putranya" yang mengabarkan bahwa putranya mengalami kecelakaan dan membutuhkan uang segera. Di Inggris, seorang direktur perusahaan ditipu lebih dari 240.000 dolar AS setelah mendengar "atasannya" meminta transfer uang melalui telepon. Seorang karyawan administrasi juga ditipu ketika menerima telepon dari "bos besar" yang meminta pembayaran kepada "mitra strategis"...

Kesamaan dalam situasi ini adalah suara palsu tersebut direproduksi persis seperti suara saudara atau atasan, sehingga korban percaya sepenuhnya dan tidak punya waktu untuk memverifikasi.

Selalu verifikasi, jangan langsung percaya

Dengan maraknya penipuan suara deepfake, masyarakat diimbau untuk tidak mentransfer uang hanya melalui suara melalui telepon, meskipun suaranya persis seperti suara orang yang mereka sayangi. Sebaiknya, hubungi kembali nomor lama atau periksa informasi melalui berbagai saluran sebelum melakukan transaksi apa pun.

Banyak ahli juga menyarankan untuk menyiapkan "kata sandi internal" di dalam rumah atau bisnis untuk verifikasi dalam situasi yang tidak biasa.

Selain itu, perlu membatasi unggahan video dengan suara jelas di media sosial, terutama konten yang panjang. Khususnya, perlu secara proaktif memperingatkan dan membimbing kelompok rentan seperti lansia atau mereka yang kurang terpapar teknologi, karena merekalah target utama penipuan teknologi tinggi.

Deepfake Voice - Ảnh 3.

Suara saudara, teman, dan kolega semuanya dapat dipalsukan.

Di banyak negara, pihak berwenang telah mulai memperketat pengelolaan teknologi deepfake dengan kerangka hukum mereka sendiri.

Di AS, beberapa negara bagian telah melarang penggunaan deepfake dalam kampanye pemilu atau untuk menyebarkan misinformasi. Uni Eropa (UE) mengesahkan Undang-Undang AI, yang mewajibkan organisasi untuk bersikap transparan dan memberikan peringatan yang jelas jika suatu konten dihasilkan oleh kecerdasan buatan.

Sementara itu, di Vietnam, meskipun tidak ada peraturan khusus untuk suara deepfake, tindakan terkait dapat ditangani sesuai hukum yang berlaku, dengan kejahatan seperti penipuan, perampasan properti, pelanggaran privasi, atau pemalsuan identitas.

Namun, kenyataannya teknologi berkembang jauh melampaui kemampuan hukum untuk memantaunya, sehingga meninggalkan banyak celah yang dapat dimanfaatkan oleh pelaku kejahatan.

Ketika suara tak lagi menjadi bukti

Suara dulunya merupakan sesuatu yang intim dan tepercaya, tetapi dengan deepfake voice, hal itu tidak lagi menjadi bukti yang valid. Di era AI, setiap individu perlu memiliki pengetahuan tentang pertahanan digital, melakukan verifikasi secara proaktif, dan selalu waspada karena panggilan telepon bisa menjadi jebakan.

PHAN HAI DANG

Sumber: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


Komentar (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Sawah terasering yang sangat indah di lembah Luc Hon
Bunga 'kaya' seharga 1 juta VND per bunga masih populer pada tanggal 20 Oktober
Film Vietnam dan Perjalanan Menuju Oscar
Anak muda pergi ke Barat Laut untuk melihat musim padi terindah tahun ini

Dari penulis yang sama

Warisan

Angka

Bisnis

Anak muda pergi ke Barat Laut untuk melihat musim padi terindah tahun ini

Peristiwa terkini

Sistem Politik

Lokal

Produk