Kantor Jaksa Agung New Hampshire mengumumkan pada hari Senin bahwa mereka sedang menyelidiki kemungkinan manipulasi pemilih setelah adanya keluhan tentang suara palsu yang terdengar persis seperti Presiden Joe Biden yang mendesak pemilih untuk tidak memberikan suara dalam pemilihan pendahuluan di negara bagian tersebut.
Para peneliti juga memperingatkan penggunaan audio deepfake untuk meniru politisi dan pemimpin, dengan kasus-kasus menonjol terjadi pada tahun 2023 di Inggris, India, Nigeria, Sudan, Ethiopia, dan Slovakia.
Seseorang memberikan suara dalam pemilihan pendahuluan di New Hampshire, AS. Foto: Getty
Audio deepfake telah menjadi bentuk misinformasi yang populer, kata para ahli, berkat munculnya berbagai alat AI yang murah dan efektif dari perusahaan rintisan. Microsoft juga telah mengembangkan model AI baru yang dapat mereplikasi suara hanya dari rekaman tiga detik.
"Soal manipulasi visual, semua orang familiar dengan Photoshop, atau setidaknya tahu keberadaannya," ujar Henry Ajder, pakar AI dan deepfake sekaligus konsultan untuk Adobe, Meta, dan EY. "Kesadaran tentang bagaimana audio dapat dimanipulasi masih sangat minim, jadi menurut saya hal itu justru membuat kita rentan."
Pada bulan September, NewsGuard, sebuah sistem yang menilai kualitas dan kredibilitas situs berita, menemukan jaringan akun TikTok yang menyamar sebagai situs berita resmi, menggunakan konten buatan AI untuk menyebarkan teori konspirasi dan misinformasi politik. Rekaman deepfake, termasuk suara mantan Presiden AS Barack Obama, telah menarik ratusan juta penayangan.
Pengisi suara palsu tersebut tampaknya dibuat oleh alat yang disediakan oleh ElevenLabs yang didukung Andreessen Horowitz, sementara klip tersebut telah ditonton ratusan juta kali, kata NewsGuard.
"Lebih dari 99% pengguna di platform kami menciptakan konten yang menarik, kreatif, dan bermanfaat. Namun, kami menyadari adanya penyalahgunaan, dan kami terus mengembangkan serta menerapkan perlindungan untuk membatasinya," ujar ElevenLabs.
ElevenLabs, yang didirikan dua tahun lalu oleh mantan karyawan Google dan Palantir, Piotr Dabkowski dan Mati Staniszewski, menawarkan perangkat lunak pembangkit audio AI dasar secara gratis hanya dengan sekali klik. Paket berlangganan berkisar dari $1 per bulan hingga $330 per bulan, dan bahkan lebih, bagi mereka yang menginginkan layanan yang lebih kompleks.
Tahun lalu, badan intelijen AS memperingatkan dalam sebuah laporan bahwa "penipuan AI yang dipersonalisasi telah meningkat secara signifikan karena dirilisnya model kloning suara AI yang canggih dan terlatih."
Selain penipuan bermotif finansial, para pakar politik kini menyuarakan kewaspadaan terhadap klip audio deepfake yang viral serta penggunaan deepfake untuk panggilan otomatis atau kampanye. "Anda dapat membangun kampanye disinformasi yang kuat dan meluas dengan menargetkan ponsel," kata AJ Nash, wakil presiden dan peneliti intelijen terkemuka di grup keamanan siber ZeroFox.
Beberapa perusahaan ini telah proaktif dalam mencari cara lain untuk memerangi misinformasi. Microsoft telah mengeluarkan pernyataan etika yang mendesak pengguna untuk melaporkan penyalahgunaan alat audio AI-nya. ElevenLabs telah mengembangkan alat deteksinya sendiri untuk mengidentifikasi rekaman audio yang dihasilkan oleh sistemnya.
Selama pemilu Nigeria tahun 2023, sebuah klip yang dimanipulasi AI menjadi viral di media sosial "yang konon menunjukkan seorang kandidat oposisi berencana untuk mencurangi pemungutan suara," menurut kelompok hak asasi manusia Freedom House.
Di Slovakia, rekaman audio palsu dari kandidat oposisi Michal Šimečka yang tampaknya berencana mencurangi pemilu menjadi viral hanya beberapa hari sebelum pemilihan presiden negara itu pada bulan September.
"Deepfake New Hampshire ini mengingatkan kita akan berbagai cara deepfake dapat membingungkan dan menipu," kata Robert Weissman, presiden kelompok advokasi konsumen nirlaba Public Citizen. "Momen deepfake politis telah tiba. Para pembuat kebijakan harus bergerak cepat untuk menerapkan perlindungan, atau kita akan menghadapi kekacauan elektoral."
Mai Anh (menurut FT)
[iklan_2]
Sumber
Komentar (0)