Vietnam.vn - Nền tảng quảng bá Việt Nam

Mesterséges intelligencia használata érzékeny képek manipulálására zsarolási célokra.

Egy közösségi médiában közzétett megrendezett fotóból a rosszindulatú szereplők mesterséges intelligencia (MI) segítségével szuggesztív vagy akár meztelen képeket hozhatnak létre, vagy valósághű arcokat vetíthetnek érzékeny videókra az áldozat rágalmazása vagy zsarolása érdekében.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

A rosszindulatú szereplők a mesterséges intelligenciát használhatják érzékeny képek és videók manipulálására, hogy másokat rágalmazzanak vagy zsaroljanak - Fotó: MI rajz.

Korábban, amikor az egyik személy arcának egy másik testére való rávetítésének technikájáról beszélgettek, gyakran Photoshopot vagy más speciális képszerkesztő szoftvert használtak – ami munkaigényes és szabad szemmel is könnyen észrevehető volt.

Manapság, mesterséges intelligencia által vezérelt eszközökkel az emberek ezt nagyon könnyen megtehetik „néhány pillanat” alatt, de szabad szemmel nem könnyű észrevenni.

Arccsere szexvideókban zsarolás céljából.

Munkahelyi kapcsolatai miatt H. úr (egy Ho Si Minh-városi vállalkozás igazgatója) gyakran lép kapcsolatba a közösségi médiában.

Egyszer egy fiatal nő összebarátkozott vele, hogy érdeklődjön a munkájáról. Miután egy ideig beszélgettek és történeteket osztottak meg a munkájukról és a magánéletükről, meglehetősen közel kerültek egymáshoz.

A két fél között számos szöveges üzenet is váltott egymással szeretetteljes szavakat, képeket váltottak, és videóhívásokat is kezdeményeztek, hogy láthassák egymás arcát.

Egy nap H. úr hívást kapott valakitől, aki a lány férjének adta ki magát. Egy „figyelmeztető” beszélgetés után a „férj” követelte, hogy H. úr utaljon át kártérítést, vagy kockáztassa, hogy a csevegési naplóikról és szexvideókról készült képernyőképeket elküldik rokonainak és üzleti partnereinek.

Ezután H. úrnak a "férje" megmutatott egy szexvideót róla és a másik nőről, valamint egy videót a telefonhívásukról és képernyőképeket az intim üzeneteikről...

„Soha nem találkoztam azzal a lánnyal, szóval biztos vagyok benne, hogy a szexvideó meg van vágva” – állította Mr. H. A szexvideóban és a videohívásban szereplő lány arca azonban azonos volt, a romantikus üzenetekről készült képernyőképekkel együtt, ami arra kényszerítette Mr. H.-t, hogy ismételten pénzt utaljon a „férjének”, hogy megvédje a hírnevét.

A Tuoi Tre újság nyomozása szerint H. úr egy tökéletesen megtervezett, szervezett átverés áldozata lett. A csalás során H. urat kétszer is átverte a deepfake technológia. Először egy videohívás, másodszor pedig egy szexvideó volt.

Figyelemre méltó módon a szexvideóban Mr. H. arcát olyan ügyesen vetítették rá a videóra, hogy a nézők nehezen hitték el, hogy hamis videóról van szó. Egy mesterséges intelligencia szakértő megerősítette a Tuổi Trẻ újságnak , hogy az elkövető egy új mesterséges intelligencia eszközt használt, amely képes tökéletesen arcokat rávetíteni a videókra... így azok hihetetlenül realisztikusnak tűnnek.

Számtalan mesterséges intelligencia által támogatott arccserélő eszköz létezik.

Ma már számos mesterséges intelligencia által vezérelt eszköz létezik, amelyek olyan funkciókkal rendelkeznek, mint például bármilyen emberi alak létrehozása kívánt arccal, vagy egy kívánt arc rávetítése egy másik személy testére.

Ezen eszközök között vannak olyanok, amelyek rosszindulatú célokat szolgáló funkciókkal rendelkeznek, például a hétköznapi fényképek meztelen képekké alakítása a rajtuk lévő személy „lecsupaszításával”, vagy egy személy arcának a videókban egy kívánt arccal való helyettesítése...

Ezen mesterséges intelligencia eszközök többsége próbaidőszakot kínál; a fizetős verzió teljes funkcionalitást és nagyon gyors átalakítási időket biztosít.

Például az arcok mások testére cserélő funkcióval a felhasználóknak egyszerűen két egymásnak megfelelő fotót kell feltölteniük, és néhány másodpercet várniuk az eredményre.

Vagy a mesterséges intelligencia eszközeivel, amelyekkel meztelen képeket lehet készíteni normál fényképekből, ezt nagyon gyorsan, mindössze néhány másodperc alatt megtehetik, megdöbbentve a nézőket.

Még a szexvideókban az arcok cseréjének funkcióját is nagyon gyorsan elvégzi a mesterséges intelligencia eszköz, kevesebb mint egy percet vesz igénybe a mindössze néhány másodperces videók esetében.

A Tuổi Trẻ újságnak nyilatkozva Nguyen Kim Tho, a VNetwork kiberbiztonsági vállalat kutatási és fejlesztési csapatának vezetője elemezte a „deepfake” kifejezést, amely mesterséges intelligencia segítségével létrehozott hamis videókra és képekre utal, amelyekkel megtévesztik a nézőket, és elhitetik velük, hogy valódiak.

A deepfake technológia mélytanulási modelleket, például neurális hálózatokat használ, hogy elemezze egy személy arc- és hangadatait, és olyan hamis tartalmat hozzon létre, amely pontosan úgy néz ki, mint az adott személy.

„Hatékony algoritmusoknak köszönhetően a rosszindulatú szereplők rávetíthetik áldozataik arcát érzékeny videókra (pl. szexvideókra, pornográfiára), vagy szerkeszthetik a képeket, hogy hamis meztelen fotókat készítsenek.”

„A deepfake szoftverek és alkalmazások ma már nagyon elterjedtek az interneten, beleértve a mobilalkalmazásokat, a nyílt forráskódú szoftvereket vagy az ingyenes online szolgáltatásokat is – így bárki könnyen hozzáférhet hamis videók és fotók készítésére szolgáló eszközökhöz, ezért az embereknek ébernek kell lenniük” – mondta Mr. Tho.

Maradj távol a "szexcsevegéstől".

Sok átverés azzal kezdődik, hogy online barátkoznak az emberekkel, majd „szexchatbe” csábítják az áldozatokat, vagy érzékeny fotókat küldenek. Ezért a felhasználóknak semmiképpen sem szabad privát képeket vagy videókat küldeniük olyan embereknek, akiket csak online ismernek, függetlenül az ígéretektől vagy a fenyegetésektől.

Mindig ne feledd, hogy minden megosztott tartalom (akár privát üzenetekben is) rögzíthető (képernyőképek, videók), majd szerkeszthető és felhasználható ellened.

Ha videohívást kezdeményezel, légy óvatos az idegenekkel, akik bizalmas tartalmakat kínálnak – lehet, hogy egy kamu képernyőről van szó, vagy felvételt készítenek rólad.

A kiberbiztonsági szakértők azt tanácsolják a felhasználóknak, hogy teljes mértékben kerüljék az online interakciók alapján történő bizalmaskodást, és mielőtt bármilyen bizalmas információt megosztanának, ellenőrizzék a másik fél kilétét és szándékait.

Továbbá, ha fenyegető üzenetet vagy hívást kapsz "meztelen" fotók zsarolás céljából történő nyilvánosságra hozataláról, nem kell félned, és nem kell sietned a pénzátutalással.

Szakértők szerint a pénz kifizetése nem garantálja, hogy az elkövetők törlik a videót; további követeléseket is követelhetnek, vagy továbbra is feltölthetik a tartalmat az internetre.

A bűnözők követeléseinek teljesítése helyett a felhasználóknak bizonyítékokat kell gyűjteniük (üzenetek, telefonszámok, fiókok, fenyegető tartalmak stb.), és azonnal jelenteniük kell azokat a legközelebbi rendőrőrsön, vagy a Közbiztonsági Minisztérium VNeID alkalmazásán keresztül kell jelenteniük az esetet az időben történő segítségnyújtás érdekében.

Hogyan azonosíthatjuk őket?

Nguyen Kim Tho úr szerint egyre nehezebb megkülönböztetni a valódi és a deepfake képeket és videókat, de még mindig vannak azonosító jelek és eszközök, amelyek segíthetnek.

A felhasználók ezt manuálisan is megfigyelhetik, mivel a deepfake tartalmak néha vizuális és hangzavarokat mutatnak.

Például egy összetett képen zaj- és színbeli eltérések lehetnek az egymásra helyezett arc és test között. Egy hamis videón előfordulhat, hogy a hang és a kép nem egyezik (az ajakmozgások nem egyeznek a beszéddel), vagy az arckifejezések merevnek és természetellenesnek tűnnek.

Korábban néhány deepfake videóban a szereplők nem pislogtak, vagy az arcukon lévő fények és árnyékok nem illeszkedtek a háttérhez – ezek a jelek arra utaltak, hogy a videót szerkesztették.

Bár a technológia fejlődik (például az új deepfake-ek realisztikus pislogó mozdulatokat adtak hozzá), az igényes nézők továbbra is észrevehetnek néhány logikátlan részletet a videókban és fotókon.

A kutatók most különféle algoritmusokat fejlesztenek a deepfake-ek nyomainak automatikus észlelésére.

A mesterséges intelligencia által generált tartalom gyakran egyedi „digitális ujjlenyomatot” hagy minden egyes pixelen, amelyet a gép felismer.

Például az Intel bemutatta az első valós idejű deepfake-detektort, amely képes elemezni a videót, és meghatározni, hogy a benne szereplő karakterek valódi emberek vagy mesterséges intelligencia által generáltak.

Ezenkívül egyes weboldalak lehetővé teszik a felhasználók számára videók és fényképek feltöltését azok hitelességének ellenőrzése érdekében (például Deepware, Sensity AI...). Ezeket a rendszereket folyamatosan frissítik, hogy lépést tartsanak az új deepfake technikákkal.

A felhasználók különösen könnyen ellenőrizhetik a forrást és a kontextust, amikor érzékeny videóval vagy képpel találkoznak, mivel sok deepfake videó hamis fiókokon vagy botokon keresztül terjed a közösségi médiában.

„Ha egy személyről szóló érzékeny tartalom nem hivatalos forrásból vagy névtelen fiókból származik, akkor meg kell kérdőjelezni annak hitelességét. Érdemes lehet közvetlenül felvenni a kapcsolatot a tartalomban szereplő személlyel, hogy ellenőrizzük, valóban ő tette-e.”

„Továbbá az ehhez hasonló projektek elősegítik a hitelesítési információk (digitális aláírások) beágyazását a képekbe és videókba már a létrehozásuktól kezdve, segítve az eredeti tartalom és a szerkesztett tartalom megkülönböztetését. A jövőben a felhasználók ezeket a hitelesítési jelölőket használhatják a megbízható tartalom azonosítására” – mondta Mr. Tho.

5 tipp az önvédelemhez

1. Korlátozza az érzékeny és privát fotók és videók megosztását (különösen a meztelen fotók, a családi fotók és a gyermekek fotói).

2. Állítsd privátra a közösségi média fiókjaidat (csak megbízható emberekkel oszd meg).

3. Kerüld a túl sok személyes adat (teljes név, telefonszám, cím stb.) megadását a nyilvános közösségi médiában.

4. Állítson be erős jelszavakat, és engedélyezze a kétfaktoros hitelesítést fiókjaihoz a feltörések megelőzése érdekében.

5. Rendszeresen keress rá a nevedre és a képedre a Google-ben (vagy használj fordított képkereső eszközöket, mint például a Google Image vagy a TinEye), hogy megtudd, kerültek-e fel illegálisan a fotóid, és azonnal kérd azok eltávolítását.

További információ Vissza a kezdőlapra
ERÉNY

Forrás: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Hozzászólás (0)

Kérjük, hagyj egy hozzászólást, és oszd meg az érzéseidet!

Ugyanebben a kategóriában

Csodálja meg a káprázatos templomokat, amelyek ebben a karácsonyi szezonban „szupermenő” helyszínek közé tartoznak.
A 150 éves „Rózsaszín katedrális” fényesen ragyog ebben a karácsonyi szezonban.
Ebben a hanoi pho étteremben saját maguk készítik a pho tésztát 200 000 VND-ért, és a vendégeknek előre kell rendelniük.
Hanoi utcáin pezsgő karácsonyi hangulat uralkodik.

Ugyanattól a szerzőtől

Örökség

Ábra

Üzleti

Különösen feltűnő a Ho Si Minh-városban található Notre Dame székesegyházat megvilágító 8 méter magas karácsonycsillag.

Aktuális ügyek

Politikai rendszer

Helyi

Termék