Zločinci mohou pomocí umělé inteligence kombinovat citlivé fotografie a videa k pomluvě a vydírání ostatních - Foto: Kresba umělou inteligencí
Dříve, když se mluvilo o technice vystřihování a vkládání obličeje jedné osoby na tělo jiné osoby, lidé často používali Photoshop nebo specializovaný software pro úpravu fotografií – což je pracné a snadno rozpoznatelné pouhým okem.
Díky nástrojům umělé inteligence to lidé mohou udělat velmi snadno „v několika poznámkách“, ale pouhým okem to není snadné odhalit.
Sexuální video s výměnou obličejů za vydírání
Kvůli pracovním kontaktům pan H. (ředitel firmy v Ho Či Minově Městě) často komunikuje na sociálních sítích.
Jednou se spřátelil s mladou dívkou, která se ho ptala na práci. Po chvíli vzájemného vyptávání, povídání si, sdělování informací o práci i osobním životě se zdálo, že si oba docela blízcí.
Také si mezi sebou vyměňovali mnoho textových zpráv s velmi láskyplnými slovy, posílali si fotky a videohovory, aby se mohli vidět.
Jednoho dne pan H. nečekaně obdržel telefonát od muže, který tvrdil, že je manželem dívky. Po „preventivním“ zákroku proti panu H. po něm „manžel“ požadoval, aby mu převedl odškodné, jinak by měl svým příbuzným a obchodním partnerům poslat fotografie jejich chatů a sexuální videa.
Pak panu H. jeho „manžel“ ukázal sexuální video, na kterém je on a ta druhá dívka, spolu s videohovorem mezi nimi a nahranými intimními textovými zprávami...
„Nikdy jsem tu dívku nepotkal, takže jsem si jistý, že to sexuální video je upravený obrázek ve Photoshopu,“ potvrdil pan H. Obrázek dívčí tváře v sexuálním videu a dívka v jeho videohovoru jsou však stejné, spolu s fotografií láskyplné textové zprávy, což pana H. donutilo mnohokrát převádět peníze svému „manželovi“, aby si zachoval pověst.
Během vyšetřování Tuoi Tre byl pan H. organizovaným způsobem podveden podle dokonalého scénáře. V tomto podvodu byl pan H. dvakrát oklamán deepfakeem. Poprvé se jednalo o videohovor a podruhé o sexuální video.
Je pozoruhodné, že v sexuálním videu byl obličej pana H. naroubován tak dovedně, že diváci jen těžko uvěřili, že se jedná o video s naroubovaným obličejem. Expert na umělou inteligenci serveru Tuoi Tre potvrdil, že zločinci použili nový nástroj umělé inteligence, který dokáže na videa dokonale naroubovat obličeje... jako na skutečné.
Nástrojů umělé inteligence pro výměnu obličejů je spousta
V současné době existuje mnoho nástrojů pro aplikace umělé inteligence, které mají funkce, jako je vytvoření jakékoli osoby s požadovaným obličejem a sloučení požadovaného obličeje s tělem jiné osoby.
Mezi nimi jsou nástroje s funkcemi, které slouží špatným účelům, jako je například přeměna běžných fotografií na nahé fotografie „odstraněním“ osoby na fotografii nebo nahrazení obličeje osoby ve videích požadovaným obličejem...
Většina těchto nástrojů umělé inteligence je k dispozici ke zkušební verzi, ale za jejich zaplacení získáte plné funkce s velmi rychlou dobou transformace.
Například s funkcí tváří v tvář stačí uživatelům nahrát dvě odpovídající fotografie a několik sekund počkat na výsledky.
Nebo díky funkci vytváření nahých fotografií z běžných fotografií to nástroj umělé inteligence dokáže udělat velmi rychle, během několika desítek sekund, což diváky překvapí.
I funkci nahrazování obličejů v sexuálních videích tento nástroj umělé inteligence dělá velmi rychle, u videí, která trvají několik sekund, to trvá méně než minutu.
V rozhovoru s Tuoi Tre analyzoval pan Nguyen Kim Tho, vedoucí výzkumného a vývojového týmu společnosti VNetwork zabývající se kybernetickou bezpečností, termín deepfake, který označuje falešná videa a obrázky vytvořené pomocí umělé inteligence, aby si diváci mysleli, že jsou skutečné.
Technologie Deepfake využívá modely hlubokého učení, jako jsou neuronové sítě, k analýze obličejových a hlasových dat osoby a vytváření falešného obsahu, který vypadá přesně jako daná osoba.
„Díky výkonným algoritmům mohou zločinci vložit obličej oběti do citlivých videí (například „postelových“ videí, porna) nebo upravovat obrázky a vytvářet falešné nahé fotografie.“
„Deepfake software a aplikace jsou nyní na internetu velmi populární, a to i s mobilními aplikacemi, otevřeným zdrojovým kódem nebo bezplatnými online službami – což usnadňuje přístup komukoli k nástrojům pro vytváření falešných videí a fotografií, takže lidé musí být ostražití,“ řekl pan Tho.
Vyhýbejte se „sexuálním chatům“
Mnoho podvodů začíná navazováním přátelství online a následným lstí oběti k „sexuálnímu chatu“ nebo zasílání citlivých fotografií. Uživatelé by proto nikdy neměli posílat soukromé fotografie nebo videa lidem, které potkávají pouze online, bez ohledu na to, jaké sliby nebo výhrůžky jim dávají.
Vždy pamatujte, že jakýkoli obsah sdílený (i prostřednictvím soukromých zpráv) může být nahrán (snímek obrazovky, video) a poté upraven a použit proti vám.
Pokud voláte pomocí videohovoru, dejte si pozor na cizí osoby, které se vás ptají na citlivý obsah – může se jednat o falešnou obrazovku nebo o nahrávání.
Odborníci na kybernetickou bezpečnost radí uživatelům, aby nikdy nikomu nedůvěřovali pouze prostřednictvím online kontaktu a aby si před sdílením čehokoli citlivého ověřili totožnost a úmysly druhé osoby.
Kromě toho, pokud obdržíte textovou zprávu nebo telefonát s výhružkou zveřejněním „žhavých“ fotografií za účelem vydírání, uživatelé se nemusí bát ani spěchat s převodem peněz.
Odborníci tvrdí, že zaplacení nezaručuje, že zločinci video smažou; mohou i nadále požadovat další platby nebo obsah zveřejnit online.
Místo toho, aby uživatelé plnili požadavky zločinců, měli by shromažďovat důkazy (zprávy, telefonní čísla, kontaktní účty, výhružný obsah...) a okamžitě se ohlásit nejbližšímu policejnímu sboru nebo incident nahlásit prostřednictvím aplikace VNeID Ministerstva veřejné bezpečnosti, kde jim bude poskytnuta včasná podpora.
Jak identifikovat?
Podle pana Nguyen Kim Tho je rozlišování mezi skutečnými obrázky a videi a deepfakes stále obtížnější, ale stále existují určité identifikační znaky a podpůrné nástroje.
Uživatelé mohou pozorovat ručně, protože deepfake obsah má někdy abnormality v obrazu a zvuku.
Například kompozitní snímek může vykazovat šum nebo barevné rozdíly mezi kompozitním obličejem a tělem. Falešné video může mít nesoulad zvuku a obrazu (pohyby rtů, které neodpovídají řeči) nebo výrazy obličeje, které působí ztuhle a nepřirozeně.
Dříve některá deepfake videa způsobovala, že postavy nemrkaly, nebo osvětlení a stíny na obličeji neodpovídaly kontextu – což byly známky toho, že video bylo upraveno.
Přestože se technologie zlepšuje (například nové deepfaky přidaly realistické mrkání očí), pozorní diváci si stále mohou ve videích a fotografiích všimnout některých nelogických detailů.
Výzkumníci nyní vyvíjejí mnoho algoritmů pro automatickou detekci stop deepfake.
Obsah generovaný umělou inteligencí často zanechává v každém pixelu charakteristický „digitální otisk prstu“, který stroje dokáží rozpoznat.
Například Intel představil první detektor deepfake v reálném čase, který dokáže analyzovat videa a určit, zda jsou postavy v nich skuteční lidé, nebo zda je generovala umělá inteligence.
Některé webové stránky navíc umožňují uživatelům nahrávat videa a fotografie za účelem ověření pravosti obrázků (například Deepware, nástroje Sensity AI...). Tyto systémy jsou neustále aktualizovány, aby držely krok s novými technikami deepfake.
Zejména si uživatelé mohou ověřit zdroj příspěvku a kontext, když narazí na citlivé video nebo obrázek, protože mnoho deepfake videí se šíří prostřednictvím falešných účtů nebo botů na sociálních sítích.
„Pokud citlivý obsah o určité osobě pochází z neoficiálního zdroje nebo anonymního účtu, buďte skeptičtí ohledně jeho pravosti. Můžete zkusit kontaktovat osobu uvedenou v obsahu přímo, abyste si ověřili, zda to skutečně udělala.“
Projekty jako např. navíc propagují vkládání ověřovacích informací (digitálních podpisů) do fotografií a videí hned od okamžiku jejich vytvoření, což pomáhá odlišit originální obsah od upraveného. V budoucnu mohou uživatelé tyto ověřovací znaky používat k identifikaci důvěryhodného obsahu,“ uvedl pan Tho.
5 poznámek, jak se chránit
1. Omezte sdílení citlivých, soukromých fotografií a videí (zejména fotografií nahých osob, rodinných fotografií a dětí).
2. Nastavte si své účty na sociálních sítích jako soukromé (sdílejte pouze s důvěryhodnými lidmi).
3. Neuvádějte na veřejných sociálních sítích příliš mnoho osobních údajů (celé jméno, telefonní číslo, adresa...).
4. Nastavte si silná hesla a povolte dvoufázové ověřování pro své účty, abyste se vyhnuli napadení hackery.
5. Pravidelně vyhledávejte své jméno a obrázek na Googlu (nebo použijte nástroje pro zpětné vyhledávání obrázků, jako je Google Image, TinEye), abyste zjistili, zda některé z vašich fotografií nebyly zveřejněny bez povolení, a neprodleně požádejte o jejich odstranění.
Zdroj: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
Komentář (0)