Jika anda pernah menatal melalui media sosial, kemungkinan besar anda telah menjumpai imej atau video yang dijana AI. Ramai yang telah tertipu, seperti video viral arnab melompat di atas trampolin. Tetapi Sora, aplikasi kakak ChatGPT yang dibangunkan oleh OpenAI, sedang membawa video AI ke peringkat seterusnya, menjadikannya penting untuk mengesan kandungan palsu.

Alat video AI menjadikannya lebih sukar berbanding sebelum ini untuk memberitahu perkara sebenar. (Sumber: CNET)
Dilancarkan pada 2024 dan baru-baru ini dikemas kini dengan Sora 2, apl itu mempunyai antara muka seperti TikTok di mana setiap video dijana AI. Ciri "cameo" membolehkan orang sebenar dimasukkan ke dalam rakaman simulasi, mencipta video yang sangat realistik sehingga menakutkan.
Akibatnya, ramai pakar bimbang Sora akan menyebarkan deepfakes, mewujudkan kekeliruan dan mengaburkan garis antara yang sebenar dan palsu. Selebriti sangat terdedah, memimpin organisasi seperti SAG-AFTRA untuk meminta OpenAI untuk mengukuhkan perlindungannya.
Mengenal pasti kandungan AI ialah cabaran besar bagi syarikat teknologi, rangkaian sosial dan pengguna. Tetapi ada cara untuk mengenali video yang dibuat dengan Sora.
Cari tera air Sora

Tanda Air Sora (anak panah hijau menunjuk ke dalam) ialah tanda untuk mengenal pasti alat yang mencipta video. (Sumber: CNET)
Setiap video yang dibuat pada apl iOS Sora mendapat tera air apabila dimuat turun – logo Sora putih (ikon awan) yang bergerak di sekeliling tepi video, serupa dengan tera air TikTok.
Ini ialah cara intuitif untuk mengenali kandungan yang dijana AI. Sebagai contoh, model "pisang nano" Gemini Google juga menandai imej secara automatik. Walau bagaimanapun, tera air tidak selalu boleh dipercayai. Jika tera air statik, ia boleh dipangkas dengan mudah. Malah tera air dinamik seperti Sora boleh dialih keluar menggunakan aplikasi khusus.
Ketika ditanya mengenai perkara ini, Ketua Pegawai Eksekutif OpenAI Sam Altman berkata bahawa masyarakat perlu menyesuaikan diri dengan fakta bahawa sesiapa sahaja boleh mencipta video palsu. Sebelum Sora, tidak ada alat sedemikian yang tersedia secara meluas, boleh diakses, dan tidak memerlukan kemahiran. Pandangannya menunjukkan keperluan untuk bergantung pada kaedah pengesahan lain.
Semak metadata

Menyemak metadata – langkah penting dalam menentukan sama ada video dihasilkan oleh AI, seperti Sora. (Sumber: Canto)
Anda mungkin berfikir bahawa menyemak metadata adalah terlalu rumit, tetapi ia sebenarnya agak mudah dan sangat berkesan.
Metadata ialah satu set maklumat yang dilampirkan secara automatik pada kandungan apabila ia dicipta, seperti jenis kamera, lokasi, masa penggambaran dan nama fail. Sama ada kandungan yang dijana manusia atau AI, metadata disertakan. Dengan kandungan AI, metadata selalunya mengiringi maklumat yang mengesahkan asalnya.
OpenAI ialah ahli Perikatan Provenance dan Pengesahan Kandungan (C2PA), jadi video Sora akan mengandungi metadata C2PA. Anda boleh menyemak menggunakan alat pengesahan Inisiatif Pengesahan Kandungan:
Cara menyemak metadata:
- Lawati verify.contentauthenticity.org
- Muat naik fail untuk disemak
- Klik “Buka”
- Lihat maklumat dalam jadual di sebelah kanan.
Jika video itu dihasilkan oleh AI, ringkasan akan menyatakan demikian. Apabila anda menyemak video Sora, anda akan melihat "diterbitkan oleh OpenAI" dan maklumat yang mengesahkan bahawa video itu dijana dengan AI. Semua video Sora mesti mempunyai maklumat ini untuk mengesahkan asal usulnya.
Sumber: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Komen (0)