Jika Anda pernah menjelajahi media sosial, kemungkinan besar Anda pernah menemukan gambar atau video yang dibuat oleh AI. Banyak orang telah tertipu, seperti video viral kelinci yang melompat di atas trampolin. Tetapi Sora – aplikasi saudara dari ChatGPT yang dikembangkan oleh OpenAI – membawa video AI ke tingkat yang baru, membuat deteksi konten palsu menjadi semakin mendesak.

Perangkat lunak AI untuk video membuat identifikasi video asli menjadi lebih sulit dari sebelumnya. (Sumber: CNET)
Diluncurkan pada tahun 2024 dan baru-baru ini ditingkatkan dengan Sora 2, aplikasi ini memiliki antarmuka yang mirip dengan TikTok, di mana semua video dihasilkan oleh AI. Fitur "cameo" memungkinkan orang sungguhan dimasukkan ke dalam rekaman simulasi, menciptakan video yang sangat realistis dan menakutkan.
Oleh karena itu, banyak ahli khawatir bahwa Sora akan menyebabkan penyebaran deepfake, yang mendistorsi informasi dan mengaburkan batas antara kenyataan dan kepalsuan. Selebriti sangat rentan, sehingga organisasi seperti SAG-AFTRA menyerukan kepada OpenAI untuk memperkuat perlindungan.
Mengidentifikasi konten yang dihasilkan AI merupakan tantangan besar bagi perusahaan teknologi, platform media sosial, dan pengguna. Namun, ada cara untuk mengenali video yang dibuat menggunakan Sora.
Temukan tanda air Sora

Tanda air Sora (ditunjukkan oleh panah biru) adalah penanda yang mengidentifikasi alat yang digunakan untuk membuat video tersebut. (Sumber: CNET)
Setiap video yang dibuat di aplikasi Sora iOS memiliki tanda air saat diunduh – logo Sora berwarna putih (ikon awan) bergerak di sekitar tepi video, mirip dengan tanda air TikTok.
Ini adalah cara visual untuk mengidentifikasi konten yang dihasilkan AI. Misalnya, model "nano-pisang" Gemini milik Google juga secara otomatis menambahkan watermark pada gambar. Namun, watermark tidak selalu dapat diandalkan. Jika watermark bersifat statis, watermark tersebut dapat dengan mudah dipotong. Bahkan watermark dinamis seperti milik Sora dapat dihapus menggunakan aplikasi khusus.
Ketika ditanya tentang hal ini, CEO OpenAI Sam Altman berpendapat bahwa masyarakat perlu beradaptasi dengan kenyataan bahwa siapa pun dapat membuat video palsu. Sebelum Sora, tidak pernah ada alat yang begitu populer, mudah diakses, dan tidak memerlukan keahlian untuk membuat video semacam itu. Perspektifnya menyoroti perlunya mengandalkan metode verifikasi alternatif.
Periksa metadata

Memeriksa metadata – langkah penting dalam menentukan apakah sebuah video dibuat oleh AI, seperti Sora. (Sumber: Canto)
Anda mungkin berpikir bahwa memeriksa metadata terlalu rumit, tetapi sebenarnya cukup sederhana dan sangat efektif.
Metadata adalah sekumpulan informasi yang secara otomatis terlampir pada konten saat dibuat, seperti jenis kamera, lokasi, waktu perekaman, dan nama file. Baik konten tersebut dihasilkan oleh manusia maupun AI, semuanya memiliki metadata. Pada konten yang dihasilkan AI, metadata sering kali mencakup informasi atribusi sumber.
OpenAI adalah anggota dari Coalition for Content Origin and Authenticity (C2PA), jadi video Sora akan berisi metadata C2PA. Anda dapat memverifikasinya menggunakan alat verifikasi inisiatif keaslian konten:
Cara memeriksa metadata:
- Kunjungi verify.contentauthenticity.org
- Unggah file yang akan diperiksa.
- Tekan “Buka”
- Lihat informasi pada tabel di sebelah kanan.
Jika video tersebut dibuat oleh AI, ringkasan akan menyatakan hal itu dengan jelas. Saat memeriksa video Sora, Anda akan melihat baris "diterbitkan oleh OpenAI" dan informasi yang mengkonfirmasi bahwa video tersebut dibuat menggunakan AI. Semua video Sora harus memiliki informasi ini untuk memverifikasi asal-usulnya.
Sumber: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Komentar (0)