owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Az új technológia várhatóan kulcsfontosságú lesz a deepfake probléma hatékony megoldásában.

A deepfake kifejezés a „mélytanulás” és a „hamisítás” szavak összevonásával jött létre. Egyszerűen fogalmazva, ez egy olyan technológia, amely hamis hang-, kép- vagy akár videótermékeket szimulál és hoz létre.

A mesterséges intelligencia (MI) robbanásszerű fejlődése óta a deepfake probléma egyre népszerűbbé vált, ami álhírek hullámait idézte elő a sajtóban. Ezért a képek és videók eredetének proaktív hitelesítése sürgető kérdés a világ vezető kameragyártó cégei számára.

A Sony, a Canon és a Nikon várhatóan olyan digitális fényképezőgépeket fognak piacra dobni, amelyek közvetlenül a tükör nélküli (vagy DSLR) fényképezőgépeiken támogatják a digitális aláírást. A digitális aláírások fényképezőgépeken való megvalósítására irányuló erőfeszítés rendkívül fontos intézkedés, amely bizonyítékot szolgáltat a képek eredetére és integritására.

Ezek a digitális aláírások tartalmazni fogják a dátumra, az időre, a helyszínre és a fotósra vonatkozó információkat, valamint hamisíthatatlanok lesznek. Ez különösen fontos a fotóriporterek és más szakemberek számára, akiknek munkája hitelesítést igényel.

Három kameraipari óriás megállapodott egy globális szabványban a digitális aláírásokra vonatkozóan, amely kompatibilis a Verify online ellenőrző eszközzel. A globális hírszervezetek, technológiai vállalatok és kameragyártók koalíciója által indított eszköz lehetővé teszi bármely kép hitelességének ingyenes ellenőrzését. Ha a képeket mesterséges intelligencia segítségével hozzák létre vagy módosítják, a Verify „Nincs tartalomellenőrzés” jelöléssel látja el őket.

A deepfake-ellenes technológiák fontossága olyan híres személyiségek deepfake-jeinek gyors térnyeréséből fakad, mint Donald Trump volt amerikai elnök és Fumio Kishida japán miniszterelnök .

Ezenkívül a kínai Tsinghua Egyetem kutatói kifejlesztettek egy új generatív mesterséges intelligencia modellt, amely napi körülbelül 700 000 kép létrehozására képes.

deepfake 01.jpg
Az új technológia segít helyreállítani a bizalmat és formálni a világról alkotott képünket.

A kameragyártók mellett más technológiai vállalatok is csatlakoznak a deepfake-ek elleni küzdelemhez. A Google kiadott egy eszközt a mesterséges intelligencia által generált képek digitális vízjelezésére, míg az Intel olyan technológiát fejlesztett ki, amely elemzi a fényképek bőrtónus-változásait, hogy segítsen meghatározni azok hitelességét. A Hitachi is dolgozik egy olyan technológián, amely megakadályozza az online személyazonossággal való visszaélést.

Az új technológia várhatóan 2024 elején lesz elérhető. A Sony tervei szerint a technológiát a média körében is népszerűsíti, és 2023 októberében már elvégezte a terepi teszteket. A Canon a Thomson Reutersszel és a Starling Data Preservation Labbal (a Stanford Egyetem és a Dél-Kaliforniai Egyetem által alapított kutatóintézettel) működik együtt a technológia további finomítása érdekében.

A kameragyártók abban reménykednek, hogy az új technológia segít helyreállítani a képekbe vetett közbizalmat, amelyek viszont alakítják a világról alkotott képünket.

(az OL szerint)

5000 dollárt fizetett a Facebooknak, hogy terjesszen egy deepfame befektetési átverést hordozó videót

5000 dollárt fizetett a Facebooknak, hogy terjesszen egy deepfame befektetési átverést hordozó videót

Egy csaló több mint 5000 dollárt fizetett a Facebooknak, hogy egy deepfake videót küldjön 100 000 ausztrál embernek. A videó egy hamis interjút tartalmazott, és arra szólította fel az embereket, hogy fektessenek be hatalmas profit érdekében.
Új kártevő vette át az irányítást az okostelefonok felett, a deepfake videók egyre kifinomultabbak

Új kártevő vette át az irányítást az okostelefonok felett, a deepfake videók egyre kifinomultabbak

Az új rosszindulatú programok képesek megkerülni a biztonsági korlátokat és átvenni az irányítást az okostelefonok felett; a deepfake videók egyre kifinomultabbak és realisztikusabbak;... ezek voltak az elmúlt hét kiemelkedő technológiai hírei.
A deepfake videók egyre kifinomultabbak és realisztikusabbak

A deepfake videók egyre kifinomultabbak és realisztikusabbak

Az egyre fejlődő technológia kontextusában léteznek olyan eszközök, amelyek lehetővé teszik olyan deepfake videók készítését, amelyek 70-80%-ban valódiak, és szabad szemmel könnyen összetéveszthetők.
Mit ne tegyünk

Mit tegyünk, hogy elkerüljük a pénzátutalásokat elkövető Deepfake videohívások csapdáját?

Ha sürgős pénzátutalást kérő hívást kapsz, maradj nyugodt, és először ellenőrizd az adatokat, mivel valószínűleg egy Deepfake videohívás áldozata vagy.
A Deepfake-et arra használják, hogy áldozataik arcát pornóvideókba foglalják

A Deepfake-et arra használják, hogy áldozataik arcát pornóvideókba foglalják

A mesterséges intelligenciát (MI) és a deepfake-et fokozatosan kihasználják a kiberbűnözők rosszindulatú célokra, amelyek átverés, sőt mások megalázásának eszközeivé válnak.