Trik penipuan dengan meniru suara dengan suara deepfake
Di era kecerdasan buatan yang berkembang pesat, suara—salah satu faktor yang dulu dianggap sebagai bukti otentik—kini telah menjadi alat berbahaya di tangan orang jahat. Teknologi suara deepfake memungkinkan suara palsu yang identik dengan orang sungguhan, menciptakan panggilan palsu yang canggih untuk menipu dan merampas hak milik.
Mengapa suara deepfake menakutkan?
Suara deepfake adalah teknologi yang menerapkan kecerdasan buatan (AI) dan pembelajaran mesin untuk menciptakan suara palsu yang identik dengan suara orang sungguhan.
Dengan dukungan model modern seperti Tacotron, WaveNet, ElevenLabs atau platform kloning suara seperti Respeecher, penipu hanya memerlukan sampel suara 3 - 10 detik untuk membuat deepfake yang 95% dapat diandalkan.
Suara deepfake menjadi sangat berbahaya karena kemampuannya meniru suara hampir sempurna, mulai dari pengucapan, intonasi hingga kebiasaan berbicara unik setiap orang.
Hal ini membuat para korban sangat sulit membedakan mana suara asli dan mana suara palsu, terutama jika suara tersebut milik saudara, sahabat, atau atasan.
Penambangan suara juga mudah, karena kebanyakan orang saat ini mengekspos audio mereka melalui platform seperti TikTok, siaran langsung media sosial, podcast, atau rapat daring. Yang lebih mengkhawatirkan, suara deepfake tidak meninggalkan jejak visual seperti gambar atau video , sehingga menyulitkan investigasi dan korban rentan kehilangan uang.
Hanya beberapa detik sampel suara sudah cukup untuk membuat deepfake
Penipuan suara deepfake menjadi semakin canggih, sering kali menggunakan skenario yang sudah dikenal: menyamar sebagai seorang kenalan dalam situasi darurat untuk menciptakan kepanikan dan menekan korban agar segera mentransfer uang.
Di Vietnam, ada kasus seorang ibu yang menerima telepon dari "putranya" yang mengabarkan bahwa putranya mengalami kecelakaan dan membutuhkan uang segera. Di Inggris, seorang direktur perusahaan ditipu lebih dari $240.000 setelah mendengar "atasannya" meminta transfer uang melalui telepon. Seorang karyawan administrasi juga ditipu ketika menerima telepon dari "bos besar" yang meminta pembayaran kepada "mitra strategis"...
Kesamaan dalam situasi ini adalah suara palsu tersebut direproduksi persis seperti suara saudara atau atasan, sehingga korban mempercayainya sepenuhnya dan tidak punya waktu untuk memverifikasi.
Selalu verifikasi, jangan langsung percaya
Dengan maraknya penipuan suara deepfake, masyarakat diimbau untuk tidak mentransfer uang hanya melalui suara melalui telepon, meskipun suaranya persis seperti suara orang yang mereka sayangi. Sebaiknya, hubungi kembali nomor lama atau periksa informasi melalui berbagai saluran sebelum melakukan transaksi apa pun.
Banyak ahli juga menyarankan untuk menyiapkan "kata sandi internal" di dalam rumah atau bisnis untuk verifikasi dalam situasi yang tidak biasa.
Selain itu, perlu untuk membatasi pengunggahan video dengan suara jelas di media sosial, terutama konten yang panjang. Khususnya, perlu untuk secara proaktif memperingatkan dan membimbing kelompok rentan seperti lansia atau mereka yang kurang terpapar teknologi, karena mereka merupakan target utama penipuan teknologi tinggi.
Suara saudara, teman, dan kolega semuanya dapat dipalsukan.
Di banyak negara, pihak berwenang telah mulai memperketat kendali atas teknologi deepfake dengan kerangka hukum mereka sendiri.
Di AS, beberapa negara bagian telah melarang penggunaan deepfake dalam kampanye pemilu atau untuk menyebarkan misinformasi. Uni Eropa (UE) mengesahkan Undang-Undang AI, yang mewajibkan organisasi untuk bersikap transparan dan memberikan peringatan yang jelas jika suatu konten dihasilkan oleh kecerdasan buatan.
Sementara itu, di Vietnam, meskipun tidak ada peraturan khusus untuk suara deepfake, tindakan terkait dapat ditangani sesuai hukum yang berlaku, dengan kejahatan seperti penipuan, pelanggaran privasi, atau penipuan identitas.
Namun, kenyataannya teknologi berkembang jauh melampaui kemampuan hukum untuk memantaunya, sehingga meninggalkan banyak celah yang dapat dimanfaatkan oleh pelaku kejahatan.
Ketika suara tak lagi menjadi bukti
Suara dulunya merupakan sesuatu yang intim dan tepercaya, tetapi dengan deepfake voice, suara tidak lagi menjadi bukti yang andal. Di era AI, setiap individu perlu memiliki pengetahuan tentang pertahanan digital, melakukan verifikasi secara proaktif, dan selalu waspada karena panggilan telepon bisa menjadi jebakan.
Sumber: https://tuoitre.vn/lua-dao-bang-deepfake-voice-ngay-cang-tinh-vi-phai-lam-sao-20250709105303634.htm
Komentar (0)