Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Penipuan suara deepfake semakin canggih, apa yang harus dilakukan?

Teknologi suara deepfake memungkinkan orang meniru suara yang identik dengan orang sungguhan, menyebabkan banyak orang terjebak dalam keyakinan terhadap suara yang familiar.

Báo Tuổi TrẻBáo Tuổi Trẻ09/07/2025

Deepfake Voice - Ảnh 1.

Trik penipuan dengan meniru suara dengan suara deepfake

Di era kecerdasan buatan yang berkembang pesat, suara—salah satu faktor yang dulu dianggap sebagai bukti otentik—kini telah menjadi alat berbahaya di tangan orang jahat. Teknologi suara deepfake memungkinkan suara palsu yang identik dengan orang sungguhan, menciptakan panggilan palsu yang canggih untuk menipu dan merampas hak milik.

Mengapa suara deepfake menakutkan?

Suara deepfake adalah teknologi yang menerapkan kecerdasan buatan (AI) dan pembelajaran mesin untuk menciptakan suara palsu yang identik dengan suara orang sungguhan.

Dengan dukungan model modern seperti Tacotron, WaveNet, ElevenLabs atau platform kloning suara seperti Respeecher, penipu hanya memerlukan sampel suara 3 - 10 detik untuk membuat deepfake yang 95% dapat diandalkan.

Suara deepfake menjadi sangat berbahaya karena kemampuannya meniru suara hampir sempurna, mulai dari pengucapan, intonasi hingga kebiasaan berbicara unik setiap orang.

Hal ini membuat para korban sangat sulit membedakan mana suara asli dan mana suara palsu, terutama jika suara tersebut milik saudara, sahabat, atau atasan.

Penambangan suara juga mudah, karena kebanyakan orang saat ini mengekspos audio mereka melalui platform seperti TikTok, siaran langsung media sosial, podcast, atau rapat daring. Yang lebih mengkhawatirkan, suara deepfake tidak meninggalkan jejak visual seperti gambar atau video , sehingga menyulitkan investigasi dan korban rentan kehilangan uang.

Lừa đảo bằng deepfake voice ngày càng tinh vi, phải làm sao? - Ảnh 2.

Hanya beberapa detik sampel suara sudah cukup untuk membuat deepfake

Penipuan suara deepfake menjadi semakin canggih, sering kali menggunakan skenario yang sudah dikenal: menyamar sebagai seorang kenalan dalam situasi darurat untuk menciptakan kepanikan dan menekan korban agar segera mentransfer uang.

Di Vietnam, ada kasus seorang ibu yang menerima telepon dari "putranya" yang mengabarkan bahwa putranya mengalami kecelakaan dan membutuhkan uang segera. Di Inggris, seorang direktur perusahaan ditipu lebih dari $240.000 setelah mendengar "atasannya" meminta transfer uang melalui telepon. Seorang karyawan administrasi juga ditipu ketika menerima telepon dari "bos besar" yang meminta pembayaran kepada "mitra strategis"...

Kesamaan dalam situasi ini adalah suara palsu tersebut direproduksi persis seperti suara saudara atau atasan, sehingga korban mempercayainya sepenuhnya dan tidak punya waktu untuk memverifikasi.

Selalu verifikasi, jangan langsung percaya

Dengan maraknya penipuan suara deepfake, masyarakat diimbau untuk tidak mentransfer uang hanya melalui suara melalui telepon, meskipun suaranya persis seperti suara orang yang mereka sayangi. Sebaiknya, hubungi kembali nomor lama atau periksa informasi melalui berbagai saluran sebelum melakukan transaksi apa pun.

Banyak ahli juga menyarankan untuk menyiapkan "kata sandi internal" di dalam rumah atau bisnis untuk verifikasi dalam situasi yang tidak biasa.

Selain itu, perlu untuk membatasi pengunggahan video dengan suara jelas di media sosial, terutama konten yang panjang. Khususnya, perlu untuk secara proaktif memperingatkan dan membimbing kelompok rentan seperti lansia atau mereka yang kurang terpapar teknologi, karena mereka merupakan target utama penipuan teknologi tinggi.

Deepfake Voice - Ảnh 3.

Suara saudara, teman, dan kolega semuanya dapat dipalsukan.

Di banyak negara, pihak berwenang telah mulai memperketat kendali atas teknologi deepfake dengan kerangka hukum mereka sendiri.

Di AS, beberapa negara bagian telah melarang penggunaan deepfake dalam kampanye pemilu atau untuk menyebarkan misinformasi. Uni Eropa (UE) mengesahkan Undang-Undang AI, yang mewajibkan organisasi untuk bersikap transparan dan memberikan peringatan yang jelas jika suatu konten dihasilkan oleh kecerdasan buatan.

Sementara itu, di Vietnam, meskipun tidak ada peraturan khusus untuk suara deepfake, tindakan terkait dapat ditangani sesuai hukum yang berlaku, dengan kejahatan seperti penipuan, pelanggaran privasi, atau penipuan identitas.

Namun, kenyataannya teknologi berkembang jauh melampaui kemampuan hukum untuk memantaunya, sehingga meninggalkan banyak celah yang dapat dimanfaatkan oleh pelaku kejahatan.

Ketika suara tak lagi menjadi bukti

Suara dulunya merupakan sesuatu yang intim dan tepercaya, tetapi dengan deepfake voice, suara tidak lagi menjadi bukti yang andal. Di era AI, setiap individu perlu memiliki pengetahuan tentang pertahanan digital, melakukan verifikasi secara proaktif, dan selalu waspada karena panggilan telepon bisa menjadi jebakan.

PHAN HAI DANG

Sumber: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm


Komentar (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Jet tempur Su-30-MK2 jatuhkan peluru pengacau, helikopter mengibarkan bendera di langit ibu kota
Puaskan mata Anda dengan jet tempur Su-30MK2 yang menjatuhkan perangkap panas yang bersinar di langit ibu kota
(Langsung) Gladi bersih perayaan, pawai, dan pawai Hari Nasional 2 September
Duong Hoang Yen menyanyikan "Tanah Air di Bawah Sinar Matahari" secara a cappella yang menimbulkan emosi yang kuat

Dari penulis yang sama

Warisan

Angka

Bisnis

No videos available

Berita

Sistem Politik

Lokal

Produk