owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Deepfake sorununun etkin bir şekilde çözülmesinde yeni teknolojinin anahtar rol oynaması bekleniyor.

Deepfake, "Derin Öğrenme" ve "Sahte" kelimelerinin birleştirilmesiyle oluşturulan bir terimdir. Basitçe ifade etmek gerekirse, sahte ses, görüntü ve hatta video ürünlerini simüle edip oluşturma teknolojisidir.

Yapay zekânın (YZ) hızla gelişmesiyle birlikte, deepfake sorunu giderek daha popüler hale geldi ve basında yayılan yanlış bilgi dalgalarına yol açtı. Bu nedenle, görüntü ve videoların kaynağını proaktif bir şekilde doğrulamak, dünyanın önde gelen kamera şirketleri için acil bir konu haline geldi.

Sony, Canon ve Nikon'un, Aynasız fotoğraf makinelerinde (veya DSLR dijital fotoğraf makinelerinde) doğrudan dijital imzaları destekleyen dijital fotoğraf makineleri piyasaya sürmesi bekleniyor. Dijital imzaları fotoğraf makinelerine uygulama çabası, görüntülerin kökeni ve bütünlüğüne dair kanıt oluşturan son derece önemli bir adımdır.

Bu dijital imzalar tarih, saat, konum ve fotoğrafçı hakkında bilgi içerecek ve bozulmaya karşı dayanıklı olacaktır. Bu, özellikle foto muhabirleri ve işleri kimlik doğrulaması gerektiren diğer profesyoneller için önemlidir.

Üç kamera sektörü devi, çevrimiçi doğrulama aracı Verify ile uyumlu dijital imzalar için küresel bir standart üzerinde anlaştı. Küresel haber kuruluşları, teknoloji şirketleri ve kamera üreticilerinden oluşan bir koalisyon tarafından başlatılan araç, herhangi bir görüntünün gerçekliğinin ücretsiz olarak doğrulanmasını sağlayacak. Görüntüler yapay zeka kullanılarak oluşturulur veya değiştirilirse, Verify bunları "İçerik Doğrulaması Yok" olarak işaretleyecek.

Deepfake karşıtı teknolojilerin önemi, eski ABD Başkanı Donald Trump ve Japonya Başbakanı Fumio Kishida gibi ünlü isimlerin deepfake'lerinin hızla yaygınlaşmasından kaynaklanıyor.

Ayrıca Çin'deki Tsinghua Üniversitesi'nden araştırmacılar, günde yaklaşık 700.000 görüntü üretebilen yeni bir üretken yapay zeka modeli geliştirdiler.

deepfake 01.jpg
Yeni teknoloji güveni yeniden tesis etmemize ve dünyaya ilişkin algımızı şekillendirmemize yardımcı olacak.

Kamera üreticilerinin yanı sıra diğer teknoloji şirketleri de deepfake'lere karşı mücadeleye katılıyor. Google, yapay zeka tarafından oluşturulan görsellere dijital filigran eklemek için bir araç yayınladı. Intel ise fotoğraflardaki cilt tonu değişikliklerini analiz ederek fotoğrafların gerçekliğini belirlemeye yardımcı olan bir teknoloji geliştirdi. Hitachi de çevrimiçi kimlik sahteciliğini önlemek için teknoloji üzerinde çalışıyor.

Yeni teknolojinin 2024'ün başlarında kullanıma sunulması bekleniyor. Sony, teknolojiyi medyaya tanıtmayı planlıyor ve Ekim 2023'te saha denemeleri gerçekleştirdi. Canon, teknolojiyi daha da geliştirmek için Thomson Reuters ve Starling Veri Koruma Laboratuvarı (Stanford Üniversitesi ve Güney Kaliforniya Üniversitesi tarafından kurulan bir araştırma enstitüsü) ile ortaklık kuruyor.

Kamera üreticileri, yeni teknolojinin kamuoyunun görüntülere olan güvenini yeniden tesis etmesini ve bunun da dünyaya ilişkin algımızı şekillendirmesini umuyor.

(OL'ye göre)

Facebook'un deepfake yatırım dolandırıcılığı videosunu yayması için 5.000 dolar ödedi

Facebook'un deepfake yatırım dolandırıcılığı videosunu yayması için 5.000 dolar ödedi

Bir dolandırıcı, Avustralya'da 100.000 kişiye deepfake bir video göndermek için Facebook'a 5.000 dolardan fazla para ödedi. Videoda sahte bir röportaj yer alıyordu ve insanlardan büyük kârlar elde etmek için yatırım yapmaları isteniyordu.
Yeni kötü amaçlı yazılımlar akıllı telefonların kontrolünü ele geçiriyor, deepfake videolar daha da karmaşıklaşıyor

Yeni kötü amaçlı yazılımlar akıllı telefonların kontrolünü ele geçiriyor, deepfake videolar daha da karmaşıklaşıyor

Yeni kötü amaçlı yazılımlar güvenlik bariyerlerini aşarak akıllı telefonların kontrolünü ele geçirebiliyor; Deepfake videoları giderek daha karmaşık ve gerçekçi hale geliyor;... geçtiğimiz haftanın öne çıkan teknoloji haberleri.
Deepfake videoları daha karmaşık ve gerçekçi hale geliyor

Deepfake videoları daha karmaşık ve gerçekçi hale geliyor

Giderek gelişen teknoloji bağlamında, çıplak gözle bakıldığında kolayca karıştırılabilen, %70-80 oranında gerçek deepfake videolar oluşturmaya olanak tanıyan araçlar bulunmaktadır.
Ne yapmamalısınız?

Para transferlerini dolandıran Deepfake görüntülü görüşme tuzağına düşmemek için ne yapılmalı?

Acil para transferi isteyen bir çağrı alırsanız sakin olun ve öncelikle bilgileri doğrulayın, çünkü büyük ihtimalle Deepfake görüntülü arama ile dolandırılıyorsunuz.
Deepfake, mağdurların yüzlerini porno videolara yerleştirmek için kullanılıyor

Deepfake, mağdurların yüzlerini porno videolara yerleştirmek için kullanılıyor

Yapay zeka (YZ) ve deepfake, siber suçlular tarafından kötü amaçlar için giderek daha fazla kullanılıyor ve başkalarını dolandırmak ve hatta küçük düşürmek için bir araç haline geliyor.