owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Teknologi baru diharapkan menjadi kunci untuk memecahkan masalah deepfake secara efektif.

Deepfake adalah istilah yang diciptakan dengan menggabungkan "Deep Learning" dan "Fake". Sederhananya, ini adalah teknologi untuk mensimulasikan dan membuat produk audio, gambar, atau bahkan video palsu.

Sejak perkembangan pesat kecerdasan buatan (AI) , masalah deepfake semakin populer, menciptakan gelombang informasi palsu yang menyebar di media. Oleh karena itu, autentikasi asal gambar dan video secara proaktif menjadi isu mendesak bagi perusahaan-perusahaan kamera terkemuka dunia .

Sony, Canon, dan Nikon diperkirakan akan meluncurkan kamera digital yang mendukung tanda tangan digital langsung pada kamera Mirrorless mereka (atau kamera digital DSLR). Upaya penerapan tanda tangan digital pada kamera merupakan langkah yang sangat penting, karena dapat memberikan bukti keaslian dan integritas gambar.

Tanda tangan digital ini akan mencakup informasi tentang tanggal, waktu, lokasi, fotografer, dan akan aman dari gangguan. Hal ini khususnya penting bagi jurnalis foto dan profesional lain yang pekerjaannya memerlukan autentikasi.

Tiga raksasa industri kamera telah menyepakati standar global untuk tanda tangan digital yang kompatibel dengan alat verifikasi daring Verify. Diluncurkan oleh koalisi organisasi berita global, perusahaan teknologi, dan produsen kamera, alat ini akan memungkinkan verifikasi gratis atas keaslian gambar apa pun. Jika gambar dibuat atau dimodifikasi menggunakan AI, Verify akan menandainya sebagai 'Tidak Ada Verifikasi Konten'.

Pentingnya teknologi anti-deepfake bermula dari maraknya deepfake tokoh-tokoh terkenal seperti mantan Presiden AS Donald Trump dan Perdana Menteri Jepang Fumio Kishida.

Selain itu, para peneliti dari Universitas Tsinghua di Tiongkok telah mengembangkan model AI generatif baru yang mampu menghasilkan sekitar 700.000 gambar per hari.

deepfake 01.jpg
Teknologi baru akan membantu memulihkan kepercayaan dan membentuk persepsi kita tentang dunia.

Selain produsen kamera, perusahaan teknologi lain juga turut serta dalam perang melawan deepfake. Google telah merilis alat untuk memberi tanda air digital pada gambar yang dihasilkan AI, sementara Intel telah mengembangkan teknologi yang menganalisis perubahan warna kulit pada foto untuk membantu menentukan keasliannya. Hitachi juga sedang mengembangkan teknologi untuk mencegah penipuan identitas daring.

Teknologi baru ini diperkirakan akan tersedia pada awal 2024. Sony berencana untuk mempromosikan teknologi ini kepada media dan telah melakukan uji coba lapangan pada Oktober 2023. Canon bermitra dengan Thomson Reuters dan Starling Data Preservation Lab (sebuah lembaga penelitian yang didirikan oleh Universitas Stanford dan Universitas California Selatan) untuk lebih menyempurnakan teknologi ini.

Pembuat kamera berharap teknologi baru ini akan membantu memulihkan kepercayaan publik terhadap gambar, yang pada gilirannya membentuk persepsi kita tentang dunia.

(menurut OL)

Membayar $5.000 kepada Facebook untuk menyebarkan video penipuan investasi deepfake

Membayar $5.000 kepada Facebook untuk menyebarkan video penipuan investasi deepfake

Seorang penipu membayar Facebook lebih dari $5.000 untuk mengirimkan video deepfake kepada 100.000 orang di Australia. Video tersebut memalsukan wawancara dan mengajak orang-orang untuk berinvestasi demi keuntungan besar.
Malware baru menguasai ponsel pintar, video deepfake semakin canggih

Malware baru menguasai ponsel pintar, video deepfake semakin canggih

Malware baru dapat menerobos penghalang keamanan dan mengambil alih kendali telepon pintar; Video deepfake semakin canggih dan realistis;... adalah berita teknologi yang paling menonjol minggu lalu.
Video deepfake menjadi lebih canggih dan realistis

Video deepfake menjadi lebih canggih dan realistis

Dalam konteks teknologi yang semakin berkembang, terdapat alat yang memungkinkan pembuatan video deepfake yang 70-80% asli, yang mudah membingungkan jika dilihat dengan mata telanjang.
Apa yang tidak boleh dilakukan

Apa yang harus dilakukan agar tidak terjebak dalam perangkap panggilan video Deepfake yang menipu transfer uang?

Jika Anda menerima panggilan yang meminta transfer uang mendesak, tetaplah tenang dan verifikasi informasinya terlebih dahulu, karena kemungkinan besar Anda ditipu oleh panggilan video Deepfake.
Deepfake dieksploitasi untuk memasukkan wajah korban ke dalam video porno

Deepfake dieksploitasi untuk memasukkan wajah korban ke dalam video porno

Kecerdasan buatan (AI) dan deepfake secara bertahap dieksploitasi oleh penjahat dunia maya untuk tujuan jahat, menjadi alat untuk menipu dan bahkan mempermalukan orang lain.