Sosyal medyada gezindiyseniz, büyük olasılıkla yapay zeka tarafından oluşturulmuş bir görüntü veya videoyla karşılaşmışsınızdır. Tavşanların trambolinde zıpladığı viral video gibi birçok video kandırıldı. Ancak ChatGPT'nin OpenAI tarafından geliştirilen kardeş uygulaması Sora, yapay zeka videosunu bir üst seviyeye taşıyarak sahte içerikleri tespit etmeyi zorunlu hale getiriyor.

Yapay zeka video araçları, neyin gerçek olduğunu söylemeyi her zamankinden daha zor hale getiriyor. (Kaynak: CNET)
2024'te piyasaya sürülen ve yakın zamanda Sora 2 ile güncellenen uygulama, her videonun yapay zeka tarafından oluşturulduğu TikTok benzeri bir arayüze sahip. "Cameo" özelliği, simüle edilmiş görüntülere gerçek kişilerin eklenmesine olanak tanıyarak, korkutucu derecede gerçekçi videolar oluşturulmasını sağlıyor.
Sonuç olarak, birçok uzman Sora'nın deepfake'leri yayarak kafa karışıklığı yaratacağından ve gerçek ile sahte arasındaki çizgiyi bulanıklaştıracağından endişe ediyor. Ünlüler özellikle savunmasız durumda ve bu da SAG-AFTRA gibi kuruluşların OpenAI'dan korumalarını güçlendirmesini talep etmesine yol açıyor.
Yapay zeka içeriklerini tespit etmek, teknoloji şirketleri, sosyal ağlar ve kullanıcılar için büyük bir zorluktur. Ancak Sora ile oluşturulan videoları tespit etmenin yolları mevcuttur.
Sora filigranını bulun

Sora Filigranı (içeriyi gösteren yeşil ok), videonun hangi araçla oluşturulduğunu belirten bir işarettir. (Kaynak: CNET)
Sora iOS uygulamasında oluşturulan her video indirildiğinde bir filigran kazanıyor; videonun kenarlarında hareket eden beyaz bir Sora logosu (bulut simgesi), tıpkı TikTok'un filigranı gibi.
Bu, yapay zeka tarafından oluşturulan içeriği tanımanın sezgisel bir yoludur. Örneğin, Google'ın Gemini "nano muz" modeli de görsellere otomatik olarak filigran ekler. Ancak filigranlar her zaman güvenilir değildir. Filigran statikse, kolayca kırpılabilir. Sora'nınki gibi dinamik filigranlar bile özel uygulamalar kullanılarak kaldırılabilir.
OpenAI CEO'su Sam Altman, bu konu sorulduğunda, toplumun herkesin sahte video oluşturabileceği gerçeğine uyum sağlaması gerektiğini söyledi. Sora'dan önce, yaygın olarak kullanılabilen, erişilebilir ve beceri gerektirmeyen böyle bir araç yoktu. Altman'ın görüşü, diğer doğrulama yöntemlerine güvenmenin gerekliliği yönünde.
Meta verileri kontrol edin

Meta verilerin kontrolü – Bir videonun Sora gibi bir yapay zeka tarafından üretilip üretilmediğini belirlemede önemli bir adım. (Kaynak: Canto)
Meta veriyi kontrol etmenin çok karmaşık olduğunu düşünebilirsiniz, ancak aslında oldukça basit ve çok etkilidir.
Meta veri, kamera türü, konum, çekim zamanı ve dosya adı gibi içerik oluşturulduğunda otomatik olarak eklenen bir bilgi kümesidir. İster insan ister yapay zeka tarafından oluşturulmuş içerik olsun, meta veriler de dahil edilir. Yapay zeka içeriklerinde ise meta veriler genellikle içeriğin kaynağını doğrulayan bilgilere eşlik eder.
OpenAI, İçerik Kaynağı ve Kimlik Doğrulama İttifakı'nın (C2PA) bir üyesidir, bu nedenle Sora videoları C2PA meta verileri içerecektir. İçerik Kimlik Doğrulama Girişimi'nin doğrulama aracını kullanarak bunu kontrol edebilirsiniz:
Meta veriler nasıl kontrol edilir:
- verify.contentauthenticity.org adresini ziyaret edin
- Kontrol edilecek dosyayı yükleyin
- "Aç"a tıklayın
- Sağdaki tabloda bilgileri görebilirsiniz.
Video yapay zeka tarafından oluşturulmuşsa, özette bu belirtilecektir. Bir Sora videosunu kontrol ettiğinizde, "OpenAI tarafından yayınlandı" ibaresini ve videonun yapay zeka ile oluşturulduğunu doğrulayan bilgileri göreceksiniz. Tüm Sora videolarının, kökenlerini doğrulamak için bu bilgiye sahip olması gerekir.
Kaynak: https://vtcnews.vn/cach-nhan-biet-video-that-hay-do-ai-tao-ar972891.html






Yorum (0)