Jika Anda pernah menjelajahi media sosial, kemungkinan besar Anda pernah menemukan gambar atau video hasil rekayasa AI. Banyak yang tertipu, seperti video viral kelinci yang melompat di atas trampolin. Namun, Sora, aplikasi saudara ChatGPT yang dikembangkan oleh OpenAI, membawa video AI ke level selanjutnya, sehingga penting untuk mengenali konten palsu.

Alat video AI membuat kita semakin sulit membedakan mana yang nyata. (Sumber: CNET)
Diluncurkan pada tahun 2024 dan baru-baru ini diperbarui dengan Sora 2, aplikasi ini memiliki antarmuka mirip TikTok di mana setiap video dihasilkan oleh AI. Fitur "cameo" memungkinkan orang sungguhan untuk dimasukkan ke dalam rekaman simulasi, menciptakan video yang begitu realistis hingga menakutkan.
Akibatnya, banyak pakar khawatir Sora akan menyebarkan deepfake, menciptakan kebingungan, dan mengaburkan batas antara yang asli dan yang palsu. Selebritas khususnya rentan, sehingga organisasi seperti SAG-AFTRA mendesak OpenAI untuk memperkuat perlindungannya.
Mengidentifikasi konten AI merupakan tantangan besar bagi perusahaan teknologi, jejaring sosial, dan pengguna. Namun, ada cara untuk mengenali video yang dibuat dengan Sora.
Temukan tanda air Sora

Tanda Air Sora (panah hijau menunjuk ke dalam) adalah tanda yang mengidentifikasi alat pembuat video tersebut. (Sumber: CNET)
Setiap video yang dibuat pada aplikasi Sora iOS akan mendapatkan tanda air saat diunduh – logo Sora berwarna putih (ikon awan) yang bergerak di tepi video, mirip dengan tanda air TikTok.
Ini adalah cara intuitif untuk mengenali konten yang dihasilkan AI. Misalnya, model "nano banana" Gemini dari Google juga secara otomatis memberi tanda air pada gambar. Namun, tanda air tidak selalu dapat diandalkan. Jika tanda air statis, tanda air tersebut dapat dengan mudah dihilangkan. Bahkan tanda air dinamis seperti milik Sora dapat dihapus menggunakan aplikasi khusus.
Ketika ditanya tentang hal ini, CEO OpenAI, Sam Altman, mengatakan bahwa masyarakat perlu beradaptasi dengan kenyataan bahwa siapa pun dapat membuat video palsu. Sebelum Sora, tidak ada alat semacam itu yang tersedia secara luas, mudah diakses, dan tidak memerlukan keahlian khusus. Pandangannya menunjukkan perlunya mengandalkan metode verifikasi lain.
Periksa metadata

Memeriksa metadata – langkah kunci dalam menentukan apakah sebuah video dihasilkan oleh AI, seperti Sora. (Sumber: Canto)
Anda mungkin berpikir bahwa memeriksa metadata terlalu rumit, tetapi sebenarnya cukup sederhana dan sangat efektif.
Metadata adalah sekumpulan informasi yang secara otomatis dilampirkan ke konten saat konten tersebut dibuat, seperti jenis kamera, lokasi, waktu perekaman, dan nama berkas. Baik konten yang dihasilkan manusia maupun AI, metadata tetap disertakan. Pada konten AI, metadata sering kali menyertai informasi yang mengautentikasi asal-usulnya.
OpenAI adalah anggota Content Provenance and Authentication Alliance (C2PA), sehingga video Sora akan berisi metadata C2PA. Anda dapat memeriksanya menggunakan alat verifikasi Content Authentication Initiative:
Cara memeriksa metadata:
- Kunjungi verify.contentauthenticity.org
- Unggah file yang akan diperiksa
- Klik “Buka”
- Lihat informasi pada tabel di sebelah kanan.
Jika video tersebut dihasilkan oleh AI, ringkasannya akan menyatakan demikian. Saat Anda memeriksa video Sora, Anda akan melihat "dipublikasikan oleh OpenAI" dan informasi yang mengonfirmasi bahwa video tersebut dihasilkan dengan AI. Semua video Sora harus memiliki informasi ini untuk memverifikasi asal-usulnya.
Sumber: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Komentar (0)