Vietnam.vn - Nền tảng quảng bá Việt Nam

Porno deepfake, masalah dalam persaingan AI

Công LuậnCông Luận17/04/2023

[iklan_1]

Deepfake adalah video dan gambar yang dibuat atau diubah secara digital menggunakan kecerdasan buatan (AI) atau pembelajaran mesin (ML). Pornografi yang dibuat menggunakan teknologi ini pertama kali beredar di internet beberapa tahun yang lalu ketika seorang pengguna Reddit membagikan klip porno palsu dengan wajah selebritas.

deepfake masih sulit di kompetisi gambar 1

Foto: GI

Siapa pun bisa menjadi korban.

Sejak saat itu, para kreator deepfake terus mengunggah video dan gambar serupa yang menyasar influencer daring, jurnalis, dan pihak-pihak lain yang memiliki profil publik. Ribuan video semacam itu tersedia di berbagai situs web.

Dengan teknologi AI yang semakin mudah diakses, hal ini memungkinkan pengguna untuk mengubah siapa pun yang mereka inginkan menjadi “bintang porno” tanpa persetujuan mereka, atau yang lebih berbahaya, menggunakan teknologi tersebut untuk mencemarkan nama baik atau memeras orang lain.

Para ahli mengatakan masalah ini dapat bertambah buruk dengan pengembangan alat AI generatif yang dilatih pada miliaran gambar dari internet dan menghasilkan konten baru menggunakan data yang ada.

"Kenyataannya adalah teknologi akan terus berkembang biak, terus berevolusi, dan akan terus menjadi lebih mudah diakses dan diakses," kata Adam Dodge, pendiri EndTAB, sebuah kelompok yang menyediakan pelatihan tentang penyalahgunaan teknologi. "Dan selama itu terus berlanjut, orang-orang pasti akan ... terus menyalahgunakan teknologi tersebut untuk menyakiti orang lain, terutama melalui kekerasan seksual daring, pornografi deepfake, dan foto telanjang palsu."

Noelle Martin dari Perth, Australia, telah mengalami kenyataan itu. Perempuan berusia 28 tahun ini menemukan pornografi deepfake dirinya 10 tahun lalu ketika, karena penasaran, ia mencari gambar dirinya sendiri di Google suatu hari. Hingga saat ini, Martin mengatakan ia tidak tahu siapa yang membuat gambar atau video porno palsu tersebut. Ia menduga seseorang menggunakan gambar-gambar media sosialnya untuk membuat video porno.

Martin mencoba menghubungi situs-situs tersebut untuk menghapus video-video tersebut, tetapi usahanya sia-sia. Beberapa tidak merespons. Yang lain menghapusnya tetapi segera mengunggah ulang. "Anda tidak bisa menang," kata Martin. "Video itu akan ada di internet selamanya dan dapat menghancurkan hidup Anda."

Upaya perusahaan teknologi untuk memperbaiki masalah ini

Beberapa model AI mengatakan mereka memiliki akses terbatas ke gambar pornografi.

OpenAI menyatakan telah menghapus konten pornografi dari data yang digunakan untuk melatih generator gambar DALL-E, yang seharusnya mengurangi kemungkinan penyalahgunaan. Perusahaan juga menyaring permintaan dan menyatakan telah memblokir pengguna dari pembuatan gambar AI selebritas dan politisi terkemuka. Model lain, Midjourney, juga memblokir penggunaan kata kunci tertentu dan mendorong pengguna untuk melaporkan gambar bermasalah kepada moderator.

Sementara itu, Stability AI juga telah meluncurkan pembaruan yang mencegah pengguna membuat gambar eksplisit. Perubahan ini muncul setelah adanya laporan bahwa beberapa pengguna menggunakan teknologi ini untuk membuat foto telanjang yang terinspirasi oleh selebritas.

Juru bicara Stability AI, Motez Bishara, mengatakan filter tersebut menggunakan kombinasi kata kunci dan teknik lain seperti pengenalan gambar untuk mendeteksi ketelanjangan. Namun, pengguna dapat memodifikasi perangkat lunak dan berkreasi sesuka hati, karena perusahaan telah merilis kode sumber terbuka aplikasi tersebut.

Beberapa perusahaan media sosial juga telah memperketat aturan untuk lebih melindungi platform mereka dari materi berbahaya.

Bulan lalu, TikTok mengatakan semua konten deepfake atau konten yang dimanipulasi harus diberi label untuk menunjukkan konten tersebut palsu atau diubah dengan cara tertentu.

Platform game Twitch juga baru-baru ini memperbarui kebijakannya tentang gambar deepfake setelah seorang streamer populer bernama Atrioc ketahuan membuka situs porno deepfake di perambannya selama siaran langsung pada akhir Januari.

Apple dan Google mengatakan mereka baru-baru ini menghapus sebuah aplikasi dari toko aplikasi mereka karena memuat video deepfake yang bernada seksual untuk memasarkan produk mereka.

Dari penyanyi Barat menjadi idola K-pop.

Penelitian tentang pornografi deepfake jarang terjadi, tetapi laporan tahun 2019 oleh perusahaan AI DeepTrace Labs menemukan bahwa pornografi hampir seluruhnya ditujukan kepada wanita, dengan aktris Barat menjadi yang paling banyak ditargetkan, diikuti oleh penyanyi K-pop.

Juru bicara Meta Dani Lever mengatakan dalam sebuah pernyataan bahwa kebijakan perusahaan membatasi konten dewasa yang dihasilkan AI dan non-AI, dan membatasi halaman aplikasi penghasil deepfake dari iklan di platformnya.

Pada bulan Februari, Meta, serta situs dewasa seperti Only**** dan Porn***, mulai berpartisipasi dalam sebuah alat daring bernama Take It Down, yang memungkinkan remaja melaporkan gambar dan video eksplisit seksual diri mereka dari internet. Situs ini mendukung video yang direkam secara diam-diam maupun video yang dihasilkan oleh AI.

Hoang Ton (menurut AP)


[iklan_2]
Sumber

Komentar (0)

No data
No data

Dalam kategori yang sama

Musim gugur yang lembut di Hanoi melalui setiap jalan kecil
Angin dingin 'menyentuh jalanan', warga Hanoi saling mengundang untuk saling menyapa di awal musim
Ungu Tam Coc – Lukisan ajaib di jantung Ninh Binh
Sawah terasering yang sangat indah di lembah Luc Hon

Dari penulis yang sama

Warisan

Angka

Bisnis

MENENGOK KEMBALI PERJALANAN KONEKSI BUDAYA - FESTIVAL BUDAYA DUNIA DI HANOI 2025

Peristiwa terkini

Sistem Politik

Lokal

Produk