Deepfake adalah istilah yang diciptakan dengan menggabungkan "Deep Learning" dan "Fake". Sederhananya, ini adalah teknologi untuk mensimulasikan dan membuat produk audio, gambar, atau bahkan video palsu.
Sejak perkembangan pesat kecerdasan buatan (AI) , masalah deepfake semakin populer, menciptakan gelombang informasi palsu yang menyebar di media. Oleh karena itu, autentikasi asal gambar dan video secara proaktif menjadi isu mendesak bagi perusahaan-perusahaan kamera terkemuka dunia .
Sony, Canon, dan Nikon diperkirakan akan meluncurkan kamera digital yang mendukung tanda tangan digital langsung pada kamera Mirrorless mereka (atau kamera digital DSLR). Upaya penerapan tanda tangan digital pada kamera merupakan langkah yang sangat penting, karena dapat memberikan bukti keaslian dan integritas gambar.
Tanda tangan digital ini akan mencakup informasi tentang tanggal, waktu, lokasi, fotografer, dan akan aman dari gangguan. Hal ini khususnya penting bagi jurnalis foto dan profesional lain yang pekerjaannya memerlukan autentikasi.
Tiga raksasa industri kamera telah menyepakati standar global untuk tanda tangan digital yang kompatibel dengan alat verifikasi daring Verify. Diluncurkan oleh koalisi organisasi berita global, perusahaan teknologi, dan produsen kamera, alat ini akan memungkinkan verifikasi gratis atas keaslian gambar apa pun. Jika gambar dibuat atau dimodifikasi menggunakan AI, Verify akan menandainya sebagai 'Tidak Ada Verifikasi Konten'.
Pentingnya teknologi anti-deepfake bermula dari maraknya deepfake tokoh-tokoh terkenal seperti mantan Presiden AS Donald Trump dan Perdana Menteri Jepang Fumio Kishida.
Selain itu, para peneliti dari Universitas Tsinghua di Tiongkok telah mengembangkan model AI generatif baru yang mampu menghasilkan sekitar 700.000 gambar per hari.
Selain produsen kamera, perusahaan teknologi lain juga turut serta dalam perang melawan deepfake. Google telah merilis alat untuk memberi tanda air digital pada gambar yang dihasilkan AI, sementara Intel telah mengembangkan teknologi yang menganalisis perubahan warna kulit pada foto untuk membantu menentukan keasliannya. Hitachi juga sedang mengembangkan teknologi untuk mencegah penipuan identitas daring.
Teknologi baru ini diperkirakan akan tersedia pada awal 2024. Sony berencana untuk mempromosikan teknologi ini kepada media dan telah melakukan uji coba lapangan pada Oktober 2023. Canon bermitra dengan Thomson Reuters dan Starling Data Preservation Lab (sebuah lembaga penelitian yang didirikan oleh Universitas Stanford dan Universitas California Selatan) untuk lebih menyempurnakan teknologi ini.
Pembuat kamera berharap teknologi baru ini akan membantu memulihkan kepercayaan publik terhadap gambar, yang pada gilirannya membentuk persepsi kita tentang dunia.
(menurut OL)
Membayar $5.000 kepada Facebook untuk menyebarkan video penipuan investasi deepfake
Malware baru menguasai ponsel pintar, video deepfake semakin canggih
Video deepfake menjadi lebih canggih dan realistis
Apa yang harus dilakukan agar tidak terjebak dalam perangkap panggilan video Deepfake yang menipu transfer uang?
Deepfake dieksploitasi untuk memasukkan wajah korban ke dalam video porno
[iklan_2]
Sumber






Komentar (0)