A rosszfiúk a mesterséges intelligenciát használhatják érzékeny fényképek és videók kombinálására, hogy rágalmazzanak és zsaroljanak másokat - Fotó: MI rajz
A múltban, amikor az egyik ember arcának egy másik ember testére való kivágásának és beillesztésének technikájáról beszéltek, az emberek gyakran Photoshopot vagy speciális képszerkesztő szoftvert használtak - ami munkaigényes és szabad szemmel könnyen felismerhető.
Manapság a mesterséges intelligencia eszközeivel az emberek ezt nagyon könnyen megtehetik „néhány hangjegy” alatt, de szabad szemmel nem könnyű észrevenni.
Arccserepezős szexvideó zsarolás céljából
Munkahelyi kapcsolatai miatt H. úr (egy Ho Si Minh-városi vállalkozás igazgatója) gyakran kommunikál a közösségi hálózatokon.
Egyszer összebarátkozott egy fiatal lánnyal, aki a munkájáról érdeklődött. Miután egy ideig egymás felől kérdezősködtek, beszélgettek, megosztottátok egymással a munkájukat és a magánéletüket, úgy tűnt, hogy a kettőjük között nagyon közel állnak egymáshoz.
Sok szeretetteljes szöveges üzenetet is váltottak a két fél között, képeket váltottak egymással, és videóhívásokat is kezdeményeztek, hogy találkozzanak.
Egy nap H. úr váratlanul hívást kapott egy férfitól, aki a lány férjének adta ki magát. Egy H. úrral szembeni „megelőző” intézkedés után a „férj” azt követelte, hogy utaljon át kártérítést, vagy küldjön fotókat a beszélgetéseikről és szexvideókat rokonainak és üzleti partnereinek.
Ezután H. úrnak a "férje" megmutatott egy szexvideót róla és a másik lánnyal, valamint egy videohívást is tartottak közöttük, és intim szöveges üzeneteket rögzítettek...
„Még sosem találkoztam azzal a lánnyal, szóval biztos vagyok benne, hogy a szexvideó egy photoshoppolt kép” – erősítette meg Mr. H. A szexvideóban és a videohívásban látható lány arcának képe azonban ugyanaz, akárcsak a szeretetteljes üzenet fotója, ami arra kényszerítette Mr. H.-t, hogy sokszor utaljon pénzt a „férjének” a hírneve megőrzése érdekében.
Tuoi Tre nyomozása során H. urat szervezetten, tökéletes forgatókönyv szerint átverték. A csalás során H. urat kétszer is átverték deepfake-kel. Először egy videohívás, másodszor pedig egy szexvideó volt.
Figyelemre méltó, hogy a szexvideóban Mr. H. arcát olyan ügyesen illesztették be a videóba, hogy a nézők nehezen hinték el, hogy valóban egy arcmásolatról van szó. Egy mesterséges intelligencia szakértő megerősítette Tuoi Tre- nek, hogy a rosszfiúk egy új mesterséges intelligencia eszközt használtak, amely tökéletesen képes arcokat illeszteni a videókra... akárcsak az igaziak.
Arccserélő mesterséges intelligencia eszközök bőven vannak
Jelenleg számos mesterséges intelligencia alkalmazás létezik, amelyek olyan funkciókkal rendelkeznek, mint például bármely személy létrehozása a kívánt arccal, és a kívánt arc egy másik személy testére való egyesítése.
Köztük vannak olyan eszközök, amelyek olyan funkciókat tartalmaznak, amelyek rossz célokat szolgálnak, mint például a normál fotók meztelen fotókká alakítása a rajtuk lévő személy "lecsupaszításával", vagy egy személy arcának a videókban egy kívánt arccal való helyettesítése...
Ezen mesterséges intelligencia eszközök legtöbbje kipróbálható, de ha fizet értük, akkor teljes funkcionalitást kapsz nagyon gyors átállási idővel.
Például a „személyes találkozás” funkcióval a felhasználóknak csak két egymásnak megfelelő fotót kell feltölteniük, és néhány másodpercet várniuk az eredményekre.
Vagy a normál fotókból meztelen fotók készítésének funkciójával a mesterséges intelligencia eszköze nagyon gyorsan, mindössze néhány tucat másodperc alatt meg tudja csinálni, megdöbbentve a nézőket.
Még a szexvideókban az arcok cseréjének funkcióját is nagyon gyorsan elvégzi a mesterséges intelligencia, kevesebb mint egy percet vesz igénybe a néhány másodperces videóknál.
A Tuoi Tre- vel beszélgetve Nguyen Kim Tho, a VNetwork kiberbiztonsági vállalat kutatási és fejlesztési csapatának vezetője elemezte a deepfake kifejezést, amely mesterséges intelligencia segítségével létrehozott hamis videókra és képekre utal, amelyekkel el akarják hitetni a nézőket, hogy valódiak.
A deepfake technológia mélytanulási modelleket, például neurális hálózatokat használ, hogy elemezze egy személy arc- és hangadatait, és olyan hamis tartalmat hozzon létre, amely pontosan úgy néz ki, mint az adott személy.
„Hatékony algoritmusoknak köszönhetően a rosszfiúk az áldozat arcát érzékeny videókba (például „ágyas” videókba, pornóba) helyezhetik, vagy képeket szerkeszthetnek, hogy hamis meztelen fotókat készítsenek.”
„A deepfake szoftverek és alkalmazások ma már nagyon népszerűek az interneten, még a mobilalkalmazások, a nyílt forráskódú kódok vagy az ingyenes online szolgáltatások esetében is – így bárki könnyen hozzáférhet hamis videók és fotók készítésére szolgáló eszközökhöz, ezért az embereknek ébernek kell lenniük” – mondta Mr. Tho.
Maradj távol a "szexcsevegéstől"
Sok átverés azzal kezdődik, hogy online barátokat szereznek, majd az áldozatot „szexchatre” csábítják, vagy érzékeny fotókat küldenek. Ezért a felhasználóknak soha nem szabad privát fotókat vagy videókat küldeniük olyan embereknek, akikkel csak online találkoznak, függetlenül attól, hogy milyen ígéreteket vagy fenyegetéseket tesznek.
Mindig ne feledd, hogy minden megosztott tartalom (akár privát üzenetekben is) rögzíthető (képernyőkép, videó), majd szerkeszthető és felhasználható ellened.
Videohívás esetén légy óvatos az idegenekkel, akik bizalmas tartalmat kérnek – lehet, hogy csak egy képernyőről van szó, vagy éppen felvételt készítenek.
A kiberbiztonsági szakértők azt tanácsolják a felhasználóknak, hogy soha ne bízzanak meg senkiben pusztán online kapcsolatfelvétel útján, és mielőtt bármilyen bizalmas információt megosztanának, ellenőrizzék a másik személyazonosságát és szándékait.
Ezenkívül, ha olyan szöveges üzenetet vagy hívást kapsz, amelyben azzal fenyegetőznek, hogy "dögös" fotókat tesznek közzé zsarolás céljából, a felhasználóknak nem kell félniük, és nem kell sietniük a pénzátutalással.
A fizetés nem garantálja, hogy a rosszfiúk törlik a videót; a szakértők szerint továbbra is követelhetnek többet, vagy akár online is közzétehetik a tartalmat.
A bűnözők kéréseinek követése helyett a felhasználóknak bizonyítékokat kell gyűjteniük (üzenetek, telefonszámok, elérhetőségek, fenyegető tartalmak...), és azonnal jelenteniük kell az esetet a legközelebbi rendőrségnek, vagy a Közbiztonsági Minisztérium VNeID alkalmazásán keresztül kell jelenteniük az esetet az időben történő támogatás érdekében.
Hogyan lehet azonosítani?
Nguyen Kim Tho úr szerint egyre nehezebb megkülönböztetni a valódi képeket és videókat a deepfake-ektől, de még mindig vannak azonosító jelek és támogató eszközök.
A felhasználók manuálisan is megfigyelhetik a tartalmat, mivel a deepfake tartalmak néha kép- és hangzavarokat mutatnak.
Például egy összetett képen zaj vagy színbeli különbségek lehetnek az összetett arc és a test között. Egy hamis videón előfordulhatnak hang- és képbeli eltérések (az ajakmozgások nem egyeznek a beszéddel), vagy merevnek és természetellenesnek tűnő arckifejezések.
Korábban néhány deepfake videóban a szereplők nem pislogtak, vagy az arcukon lévő világítás és árnyékok nem feleltek meg a kontextusnak – ezek a jelek arra utaltak, hogy a videót szerkesztették.
Bár a technológia fejlődik (például az új deepfake-ek realisztikus pislogómozdulatokat adtak hozzá), a figyelmes nézők továbbra is észrevehetnek néhány logikátlan részletet a videókban és fotókon.
A kutatók jelenleg számos algoritmust fejlesztenek a deepfake nyomok automatikus észlelésére.
A mesterséges intelligencia által generált tartalom gyakran egy jellegzetes „digitális ujjlenyomatot” hagy minden egyes pixelben, amelyet a gépek felismernek.
Például az Intel bemutatta az első valós idejű deepfake-detektort, amely képes videókat elemezni, és meghatározni, hogy a rajtuk szereplők valódi emberek vagy mesterséges intelligencia által generáltak.
Ezenkívül egyes weboldalak lehetővé teszik a felhasználók számára, hogy videókat és fényképeket töltsenek fel a képek hitelességének ellenőrzése érdekében (például Deepware, Sensity AI eszközök...). Ezeket a rendszereket folyamatosan frissítik, hogy lépést tartsanak az új deepfake technikákkal.
A felhasználók különösen akkor tudják ellenőrizni a bejegyzés forrását és a kontextust, amikor érzékeny videóval vagy képpel találkoznak, mivel sok deepfake videó hamis fiókokon vagy botokon keresztül terjed a közösségi hálózatokon.
„Ha egy személyről szóló érzékeny tartalom nem hivatalos forrásból vagy névtelen fiókból származik, legyen szkeptikus a hitelességével kapcsolatban. Érdemes lehet közvetlenül felvenni a kapcsolatot a tartalomban szereplő személlyel, hogy megbizonyosodjon arról, hogy valóban ő tette.”
„Ezenkívül olyan projektek is vannak, mint például a hitelesítési információk (digitális aláírások) beágyazása a fényképekre és videókra már a létrehozásuk pillanatától kezdve, segítve az eredeti tartalom megkülönböztetését a szerkesztett tartalomtól. A jövőben a felhasználók ezeket a hitelesítési jeleket használhatják a megbízható tartalom azonosítására” – mondta Mr. Tho.
5 tipp, hogy megvédd magad
1. Korlátozd a bizalmas, privát fotók és videók megosztását (különösen a meztelen fotók, családi fotók, gyermekekről készült fotók).
2. Állítsd privátra a közösségi média fiókjaidat (csak megbízható emberekkel oszd meg).
3. Ne adj meg túl sok személyes információt (teljes név, telefonszám, cím...) a nyilvános közösségi oldalakon.
4. Állítson be erős jelszavakat, és engedélyezze a kétlépcsős azonosítást fiókjaihoz, hogy elkerülje a feltörést.
5. Rendszeresen keress rá a nevedre és a képedre a Google-ben (vagy használj fordított képkereső eszközöket, mint például a Google Kép, TinEye), hogy megtudd, nem kerültek-e fel engedély nélkül a fotóid, és azonnal kérd azok eltávolítását.
Forrás: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Hozzászólás (0)