Vietnam.vn - Nền tảng quảng bá Việt Nam

Využití umělé inteligence k manipulaci s citlivými obrázky za účelem vydírání.

Z pozměněné fotografie zveřejněné na sociálních sítích mohou útočníci pomocí umělé inteligence (AI) vytvořit sugestivní nebo dokonce nahé snímky, případně vložit realistické tváře do citlivých videí, aby oběť pomlouvali nebo vydírali.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Zlomyslní aktéři mohou pomocí umělé inteligence manipulovat s citlivými obrázky a videi za účelem pomluvy nebo vydírání ostatních - Foto: Kresba umělé inteligence.

Dříve se při diskusi o technice překrývání obličeje jedné osoby s tělem jiné často používal Photoshop nebo jiný specializovaný software pro úpravu fotografií – což bylo pracné a snadno viditelné pouhým okem.

Nyní, s nástroji umělé inteligence, to lidé mohou udělat velmi snadno během „pár okamžiků“, ale pouhým okem to není snadné zjistit.

Výměna obličejů v sexuálních videích za účelem vydírání.

Kvůli pracovním kontaktům pan H. (ředitel firmy v Ho Či Minově Městě) často komunikuje na sociálních sítích.

Jednou se s ním spřátelila mladá žena, aby se zeptala na jeho práci. Po nějaké době, kdy si povídali a vyprávěli si historky o práci i osobním životě, se docela sblížili.

Také si mezi sebou vyměňovali mnoho textových zpráv plných láskyplných slov, posílali si fotky a telefonovali videohovory, aby si mohli navzájem vidět tváře.

Jednoho dne pan H. obdržel telefonát od někoho, kdo se vydával za manžela dívky. Po „varovné“ schůzce „manžel“ požadoval, aby pan H. převedl kompenzaci, jinak riskuje, že jeho příbuzným a obchodním partnerům budou zaslány screenshoty jejich chatovacích záznamů a sexuálních videí.

Pak panu H. jeho „manžel“ ukázal sexuální video, na kterém je on a ta druhá žena, spolu s videem z jejich telefonního hovoru a screenshoty jejich intimních textových zpráv...

„S tou dívkou jsem se nikdy nesetkal, takže jsem si jistý, že to sexuální video je sestříhané,“ prohlásil pan H. Dívčí tvář na sexuálním videu a dívka v jeho videohovoru však byly identické, spolu se snímky obrazovky romantických zpráv, což pana H. donutilo opakovaně převádět peníze „manželovi“, aby si ochránil pověst.

Podle vyšetřování novin Tuoi Tre se pan H. stal obětí organizovaného podvodu, který následoval dokonale zorganizovaný plán. V tomto podvodu byl pan H. dvakrát oklamán technologií deepfake. Poprvé se jednalo o videohovor a podruhé o sexuální video.

Je pozoruhodné, že v sexuálním videu byl obličej pana H. tak dovedně překrytý, že diváci jen těžko uvěřili, že se jedná o falešné video. Expert na umělou inteligenci potvrdil novinám Tuổi Trẻ , že pachatel použil nový nástroj umělé inteligence schopný dokonale překrýt obličeje s videi... díky čemuž vypadají neuvěřitelně realisticky.

Existuje nespočet nástrojů pro výměnu obličejů s využitím umělé inteligence.

V současné době existuje mnoho nástrojů poháněných umělou inteligencí s funkcemi, jako je vytvoření jakékoli lidské postavy s požadovaným obličejem nebo překrytí požadovaného obličeje na tělo jiné osoby.

Mezi tyto nástroje patří i ty s funkcemi, které slouží škodlivým účelům, jako je například přeměna obyčejných fotografií na nahé snímky „odstraněním“ osoby na fotografii nebo nahrazení obličeje osoby ve videích požadovaným obličejem...

Většina těchto nástrojů umělé inteligence nabízí zkušební dobu; placená verze poskytuje plnou funkčnost a velmi rychlé časy transformace.

Například s funkcí, která prohazuje obličeje na těla jiných lidí, uživatelé jednoduše nahrají dvě odpovídající fotografie a několik sekund počkají na výsledek.

Nebo díky funkci vytváření nahých obrázků z běžných fotografií to nástroje umělé inteligence dokážou udělat velmi rychle, během několika desítek sekund, a šokovat diváky.

Dokonce i funkci nahrazování obličejů v sexuálních videích nástroj umělé inteligence provádí velmi rychle, u videí, která trvají jen několik sekund, to trvá méně než minutu.

V rozhovoru pro noviny Tuổi Trẻ analyzoval pan Nguyen Kim Tho, vedoucí výzkumného a vývojového týmu společnosti VNetwork zabývající se kybernetickou bezpečností, termín „deepfake“, který označuje falešná videa a obrázky vytvořené pomocí umělé inteligence, jejichž cílem je oklamat diváky a přesvědčit je, že jsou skutečné.

Technologie Deepfake využívá modely hlubokého učení, jako jsou neuronové sítě, k analýze obličejových a hlasových dat osoby a vytváření falešného obsahu, který vypadá přesně jako daná osoba.

„Díky výkonným algoritmům mohou útočníci vkládat tváře obětí na citlivá videa (např. sexuální videa, pornografii) nebo upravovat obrázky a vytvářet falešné nahé fotografie.“

„Software a aplikace pro deepfake jsou nyní na internetu velmi běžné, a to i včetně mobilních aplikací, softwaru s otevřeným zdrojovým kódem nebo bezplatných online služeb – což usnadňuje přístup komukoli k nástrojům pro vytváření falešných videí a fotografií, takže lidé musí být ostražití,“ řekl pan Tho.

Vyhýbejte se „sexuálním chatům“.

Mnoho podvodů začíná spřátelením se s lidmi online a následným nalákáním obětí na „sex chat“ nebo zasíláním citlivých fotografií. Uživatelé by proto v žádném případě neměli posílat soukromé obrázky nebo videa lidem, které znají pouze online, bez ohledu na sliby nebo výhrůžky.

Vždy pamatujte, že jakýkoli obsah, který sdílíte (i prostřednictvím soukromých zpráv), může být nahrán (snímky obrazovky, videa) a poté upraven a použit proti vám.

Pokud uskutečňujete videohovor, dejte si pozor na cizí osoby, které nabízejí citlivý obsah – může se jednat o falešnou obrazovku nebo vás nahrávají.

Odborníci na kybernetickou bezpečnost radí uživatelům, aby se absolutně vyhnuli důvěře nikomu založenému pouze na online interakcích a aby si před sdílením čehokoli citlivého ověřili totožnost a úmysly druhé strany.

Navíc, pokud dostanete výhružnou zprávu nebo telefonát ohledně zveřejnění „nahých“ fotografií za účelem vydírání, nemusíte se bát ani spěchat s převodem peněz.

Podle odborníků zaplacení peněz nezaručuje, že pachatelé video smažou; mohou i nadále požadovat další částku nebo obsah stále nahrávat online.

Místo toho, aby vyhověli požadavkům zločinců, by uživatelé měli shromáždit důkazy (zprávy, telefonní čísla, kontaktní účty, výhružný obsah atd.) a okamžitě je nahlásit na nejbližší policejní stanici nebo incident nahlásit prostřednictvím aplikace VNeID Ministerstva veřejné bezpečnosti, kde jim bude poskytnuta včasná pomoc.

Jak je můžeme identifikovat?

Podle pana Nguyen Kim Tho je rozlišování mezi skutečnými a deepfake obrázky a videi stále obtížnější, ale stále existují určité identifikační znaky a nástroje, které vám pomohou.

Uživatelé si to mohou všimnout ručně, protože deepfake obsah má někdy vizuální a zvukové anomálie.

Například kompozitní snímek může odhalit rozdíly v šumu a barvách mezi překrývajícím se obličejem a tělem. Falešné video může mít nesouladný zvuk a obraz (pohyby rtů neodpovídají řeči) nebo výrazy obličeje, které působí ztuhle a nepřirozeně.

Dříve některá deepfake videa ukazovala postavy, které nemrkaly, nebo osvětlení a stíny na jejich tvářích neodpovídaly pozadí – to byly známky toho, že video bylo upraveno.

Přestože se technologie zlepšuje (například nové deepfaky přidaly realistické mrkací pohyby), nároční diváci si stále mohou ve videích a fotografiích všimnout některých nelogických detailů.

Výzkumníci nyní vyvíjejí různé algoritmy pro automatickou detekci stop deepfakes.

Obsah generovaný umělou inteligencí často zanechává na každém pixelu jedinečný „digitální otisk prstu“, který stroj dokáže rozpoznat.

Například Intel představil první detektor deepfake v reálném čase, který dokáže analyzovat video a určit, zda jsou postavy v něm skuteční lidé, nebo zda je generuje umělá inteligence.

Některé webové stránky navíc umožňují uživatelům nahrávat videa a fotografie za účelem ověření jejich pravosti (například Deepware, Sensity AI...). Tyto systémy jsou neustále aktualizovány, aby držely krok s novými technikami deepfake.

Zejména si uživatelé mohou ověřit zdroj a kontext, když narazí na citlivé video nebo obrázek, jelikož mnoho deepfake videí se šíří prostřednictvím falešných účtů nebo botů na sociálních sítích.

„Pokud citlivý obsah o dané osobě pochází z neoficiálního zdroje nebo anonymního účtu, měla by být jeho pravost zpochybněna. Možná by stálo za to zkusit kontaktovat osobu uvedenou v obsahu přímo a ověřit, zda to skutečně udělala.“

Projekty jako tento navíc propagují vkládání ověřovacích informací (digitálních podpisů) do obrázků a videí již od jejich vytvoření, což pomáhá rozlišovat mezi originálním a upraveným obsahem. V budoucnu by uživatelé mohli tyto ověřovací značky používat k identifikaci důvěryhodného obsahu,“ uvedl pan Tho.

5 tipů pro sebeobranu

1. Omezte sdílení citlivých a soukromých fotografií a videí (zejména nahých fotografií, rodinných fotografií a fotografií dětí).

2. Nastavte si soukromé účty na sociálních sítích (sdílejte pouze s důvěryhodnými lidmi).

3. Vyhněte se poskytování příliš velkého množství osobních údajů (celé jméno, telefonní číslo, adresa atd.) na veřejných sociálních sítích.

4. Nastavte si silná hesla a povolte dvoufaktorové ověřování pro své účty, abyste zabránili hackerům.

5. Pravidelně vyhledávejte své jméno a obrázek na Googlu (nebo použijte nástroje pro zpětné vyhledávání obrázků, jako je Google Image nebo TinEye), abyste zjistili, zda některé z vašich fotografií nebyly zveřejněny nelegálně, a neprodleně požádejte o jejich odstranění.

Číst dále Zpět na domovskou stránku
CTNOST

Zdroj: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Komentář (0)

Zanechte komentář a podělte se o své pocity!

Ve stejné kategorii

Obdivujte oslnivé kostely, které jsou během letošní vánoční sezóny „super žhavým“ místem pro odbavení.
150 let stará „Růžová katedrála“ v letošním vánočním období jasně září.
V této hanojské restauraci pho si dělají vlastní nudle pho za 200 000 VND a zákazníci si musí objednat předem.
V ulicích Hanoje panuje vánoční atmosféra.

Od stejného autora

Dědictví

Postava

Obchod

Obzvláště nápadná je osmimetrová vánoční hvězda osvětlující katedrálu Notre Dame v Ho Či Minově Městě.

Aktuální události

Politický systém

Místní

Produkt