Az alábbiakban két RMIT Egyetem szakértőjének véleménye olvasható a deepfake káros hatásairól és a probléma megoldására javasolt megoldásokról:
Dr. Jonathan Crellin (balra) és Dr. Nguyen Van Thang Long (jobbra). (Forrás: RMIT Egyetem) |
A kiberbűnözők előre nem látható módon használják ki az új technológiákat
Dr. Jonathan Crellin, az RMIT Egyetem Természettudományi , Műszaki és Technológiai Karának Információbiztonsági vezetője :
A deepfake egy géppel generált kép, amely több forrásból származó képeket vagy videókat képes kombinálni, így egy nagyon realisztikus képet, videót vagy akár hangot hoz létre.
A Deepfake egy gépi tanulásnak nevezett mesterséges intelligencia technikára támaszkodik, amely képes olyan elemeket, mint egy személy arca, egy másik képbe vagy videóba cserélni és integrálni.
A deepfake használatának egyik példája a pornográf tartalom és Taylor Swift fotóinak kombinálása hamis képek létrehozásához.
Ehhez a főszereplőnek számos képre volt szüksége, hogy a szoftver megismerhesse az énekesnő arckifejezéseit, majd ezeket pornográf tartalommal kombinálva obszcén fotókat készíthessen, ami rontotta az énekesnő imázsát.
Valójában azt pletykálják, hogy ezeket a fotókat egy Telegram-csoport tette közzé, és a Microsoft Designer eszközzel készültek, integrált mesterséges intelligencia támogatással.
Bárki áldozattá válhat, mivel a rosszfiúknak csak egy képre, videóra vagy hangfelvételre van szükségük az általa megszemélyesített személyről.
A sokféle formában megjelenő álhírek felhasználhatók álhírek létrehozására, és nyugodtan kijelenthetjük, hogy a közelgő amerikai elnökválasztás tele lesz ilyen álhírekkel.
Jelenleg a világ törvényhozói törvényeket próbálnak hozni az ilyen típusú képek ellen.
Az Egyesült Államokban számos megközelítés kezd elterjedni a jogszabályok terén, például polgári perekre való támaszkodás, vagy törvények bevezetése, amelyek „a személyről mesterséges intelligencia által generált, szexuálisan explicit képek terjesztését az adott személy beleegyezése nélkül” kezelik.
Kína új szabályozásokat is bevezetett, amelyek lehetővé teszik a mesterséges intelligencia által generált képek terjesztőinek büntetőeljárás alá vonását.
Az Egyesült Királyság az online biztonsági törvénye értelmében illegálissá tette a deepfake tartalmak megosztását.
Hogyan lehet ezt észlelni vagy megelőzni?
Az első lépés, hogy csökkentsd az online található fényképek, videók vagy hangfelvételek számát. Csak az ismerőseiddel oszd meg őket, ne tedd közzé széles körben. Ha valami felkerült az internetre, szinte lehetetlen eltávolítani.
A második módszer az, hogy megállapodsz egy titkos szóban a családoddal a hívás hitelesítéséhez, csökkentve ezzel a hamis hívás csapdájába esés kockázatát.
A képek, különösen a videók, furcsa (megrendezettnek tűnő) hibákat tartalmazhatnak. Ha ezeket a hibákat észleli, akkor nagy az esélye annak, hogy a kép vagy a hang hamisított.
Egy másik alkalmazható technika az, hogy a „fordított kép” kifejezésre keresünk a Google-ben vagy más keresőmotorokban, hogy meghatározzuk az eredeti kép forrását.
Az utolsó tanulság az, hogy ne higgy vakon annak, amit látsz, a kamera (vagy a mesterséges intelligencia) hazudhat!
A deepfake-ek hatalmas veszélyt jelentenek a hírességekre és a politikusokra
Dr. Nguyen Van Thang Long, docens, Kommunikációs és Design Kar, RMIT Egyetem :
A deepfake-ekből származó álhírek elterjedésével a hírességek és politikusok médiacsapatainak erőforrásokkal kell rendelkezniük ahhoz, hogy figyelemmel kísérhessék és azonnal reagálhassanak az álhírekre, vagy folyamatosan helyesbíthessék a hamis híreket.
Ha a deepfake-eket szisztematikusan kombinálják a „piszkos PR” szervezett formáival, ez a feladat még nehezebbé válik az ellentmondásos információk elterjedése miatt, és az álhírek és a negatív hírek mindig is többet fognak megosztani, mint a pozitívak.
Általában, amikor a közösségi hálózatokon megosztott híreket látnak, az egyének gyakran hajlamosak hivatalos médiacsatornákon keresztül ellenőrizni az információkat.
Mivel a deepfake tartalmak elárasztják a közösségi médiát, egyre nehezebb és időigényesebb ellenőrizni a mainstream hírek pontosságát, ami alapos kutatást és ellenőrzési technikákat igényel.
Minél tovább halogatjuk a hírek és források ellenőrzését, annál valószínűbb, hogy hamis, kitalált vagy félrevezető információk fognak terjedni a közösségi médiában a megosztás és a kommentelés gyors tempója miatt.
Ez súlyosbítja az alapvető problémát, és társadalmi nyugtalansághoz vezethet, különösen, ha a tartalom politikai beszédhez, valláshoz, nemi kérdésekhez, üzleti stratégiákhoz vagy makrogazdasági kérdésekhez kapcsolódik.
A deepfake-ek elterjedésével összefüggésben a leghatékonyabb kockázatkezelési stratégia továbbra is az állandó kommunikációs csatornák fenntartása népszerű közösségi média platformokon, weboldalakon vagy személyes találkozókon keresztül a vállalkozások, hírességek, politikusok és kulcsfontosságú érdekelt felek, például rajongók, sajtó, közösségek és alkalmazottak között.
A mesterséges intelligencia fokozott használata előnyökkel és váratlan új problémákkal is jár. Illusztráció. (Forrás: Freepik) |
Ezen kommunikációs csatornák fenntartásával a deepfake-ekkel kapcsolatos információk érkeztetése felgyorsul, lehetővé téve a pletykák időben történő és hatékony korrekcióját, és a félretájékoztatás kezdeti leleplezését.
A vállalatoknak, hírességeknek és politikusoknak azonban válságkezelési tervet kell kidolgozniuk kifejezetten a deepfake-ek esetére. Például kiről van szó, mely médiacsatornákon keresztül, az információk bizonyítékokon és megbízható forrásokon keresztüli ellenőrzésének kritériumairól, a pletykák kezelésének ütemtervéről, valamint a hírnév helyreállítására irányuló stratégia felvázolásáról.
Egy jól előkészített, módszeres tervvel a deepfake válság kezelése megvalósíthatóbb lesz, minimalizálva az esetlegesen felmerülő sajnálatos következményeket.
[hirdetés_2]
Forrás
Hozzászólás (0)