Vietnam.vn - Nền tảng quảng bá Việt Nam

Zabezpečení dat ve věku umělé inteligence.

Deepfake, phishingové útoky a krádeže digitální identity se stávají sofistikovanějšími a mohou udeřit kdykoli a zaměřit se na kohokoli, kdo postrádá dovednosti v oblasti digitální obrany.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Útok ze všech úhlů.

Společnost Google uvedla na trh nový produkt umělé inteligence (AI) s názvem „Gemini Nano Banana“, který se nejedná o rozsáhlou lingvistickou AI (LLM) schopnou psaní a uvažování, ale spíše o AI specializující se na úpravu fotografií... Mnoho uživatelů je z tohoto nástroje nadšeno, ale přináší s sebou i řadu nevýhod.

S4c.jpg
Základní škola Tran Hung Dao v okrese Cau Ong Lanh v Ho Či Minově Městě používá systém rozpoznávání obličeje k zaznamenávání docházky a zasílání oznámení rodičům prostřednictvím aplikace. Foto: HOANG HUNG

„Je to jako ‚krok zpět‘ v technologii umělé inteligence a etických omezeních,“ řekl Nguyen Hong Phuc, hlavní vědecký ředitel společnosti Conductify AI, a vyjádřil svůj osobní názor. „Gemini Nano Banana má efektivní možnosti úpravy obrázků. Ale odcenzurování Gemini Nano Banana společností Google, uvolnění bariér a omezujících mechanismů, umožňuje této umělé inteligenci vytvářet obrázky, které jsou neuvěřitelně podobné celebritám, sugestivní obrázky, citlivé obrázky atd.,“ řekl Phuc.

Podle pana Nguyen Hong Phuca tato schopnost dělá z Gemini Nano Banana nástroj pro vytváření realistických falešných obrázků, a to do té míry, že je nedokážou rozlišit ani odborníci na umělou inteligenci, což vede k novým rizikům podvodů a kybernetické bezpečnosti, jako je vytváření falešných fotografií se slavnými politiky za účelem šíření falešných informací, a dokonce i to, že jednotlivci jsou vystaveni manipulaci s fotografiemi generovanými umělou inteligencí a pomluvám na sociálních sítích...

Navíc s desítkami dalších nástrojů pro úpravu fotografií s umělou inteligencí, které dobývají internet, se deepfake podvody nedají zastavit. Statistiky bezpečnostních organizací ukazují, že technologie deepfake vytváří phishingové kampaně zaměřené na vysoce hodnotné jednotlivce, zejména na vedoucí pracovníky. V roce 2024 bylo celosvětově zaznamenáno 140 000–150 000 případů, přičemž 75 % z nich bylo zaměřeno na generální ředitele a vedoucí pracovníky... Deepfake by mohly do roku 2027 zvýšit globální ekonomické ztráty o 32 %, což je přibližně 40 miliard dolarů ročně.

Společnost Anthropic, která se zabývá umělou inteligencí, nedávno odhalila a zmařila kybernetickou útočnou kampaň zahraničních hackerů, která poprvé zaznamenala použití umělé inteligence ke koordinaci automatizovaných útočných aktivit. Hackeři konkrétně používali systémy umělé inteligence k plánování, řízení a nasazení operací proti narušení – což je „znepokojivý“ vývoj, který riskuje rozšíření rozsahu a rychlosti kybernetických útočných kampaní…

Pan Ngo Minh Hieu, ředitel Organizace pro boj proti podvodům Národní asociace pro kybernetickou bezpečnost, se podělil o to, že nástroje integrované s umělou inteligencí zvyšují rychlost podvodů přibližně 20krát ve srovnání s použitím skutečných lidí. Podvodníci poskytnou umělé inteligenci scénář podvodu k analýze a systém okamžitě automaticky chatuje s oběťmi. Z počátečních dat dokáže umělá inteligence pochopit, co oběť chce, a komunikovat s ní v reálném čase. Nejsofistikovanější taktikou je útok „Man-in-the-Middle“, kdy když uživatel provede video ověření (například zaznamenáním obličeje nebo zadáním příkazů), hacker zasáhne a naruší přenášená data. Kyberzločinci poté vloží předpřipravená deepfake videa, která nahradí skutečný datový tok uživatele, aby obešli proces ověřování. Touto metodou jsou ohroženy i bezpečnostní systémy bank a finančních institucí.

Lepší správa dat

S rostoucím rozšířením umělé inteligence se výrazně zvyšují i ​​bezpečnostní a soukromoprávní rizika. Data uložená a zpracovávaná na vzdálených serverech se stanou atraktivním cílem hackerů a kyberzločinců. Podle údajů Národní asociace pro kybernetickou bezpečnost se jen ve druhém čtvrtletí roku 2025 počet kybernetických útoků s využitím umělé inteligence zvýšil o 62 %, což způsobilo celosvětové ztráty až 18 miliard dolarů...

Odborníci se domnívají, že ochrana dat je klíčová. Shromažďování a prodej dat však otevřeně pokračuje na mnoha platformách „černého trhu“, a to za pouhých 20 dolarů měsíčně. Kyberzločinci mohou používat nástroje, které napodobují jazykové modely, ale jsou přizpůsobeny pro kriminální účely. Tyto nástroje jsou schopny generovat malware a dokonce i obcházet antivirový software.

Ve Vietnamu upravuje ochranu osobních údajů dekret č. 13/2023/ND-CP (účinný od 17. dubna 2023). Zákon o ochraně osobních údajů, jehož účinnost se očekává od 1. ledna 2026, dále otevře silnější právní mechanismus pro řešení rizika úniku a zneužití osobních údajů. Podle Národní asociace pro kybernetickou bezpečnost je však stále třeba posílit účinnost vymáhání práva ve třech pilířích: zvyšování povědomí veřejnosti, zvyšování společenské odpovědnosti a zlepšování zpracovatelské kapacity regulačních orgánů. Kromě technických opatření si každý jednotlivec musí osvojit schopnost identifikovat neobvyklé a podezřelé znaky a proaktivně se chránit před nebezpečnými digitálními interakcemi…

Společnost Kaspersky varovala před zneužíváním temné umělé inteligence (termín označující nasazení rozsáhlých jazykových modelů (LLM), které fungují mimo standardní bezpečnostní kontroly a často umožňují akce, jako je phishing, manipulace, kybernetické útoky nebo zneužití dat). Organizace i jednotlivci se musí připravit na to, že budou čelit stále sofistikovanějším a obtížněji odhalitelným kybernetickým útokům v důsledku vzestupu temné umělé inteligence v asijsko-pacifickém regionu.

Sergej Ložkin, vedoucí globálního výzkumného a analytického týmu (GReAT) pro regiony Blízkého východu, Turecka, Afriky a Asie a Tichomoří ve společnosti Kaspersky, uvedl, že jedním z projevů současného zneužívání umělé inteligence je vznik modelů Black Hat GPT. Jedná se o modely umělé inteligence speciálně vyvinuté nebo upravené tak, aby sloužily neetickým a nelegálním účelům, jako je vytváření malwaru, vytváření plynulých a přesvědčivých phishingových e-mailů pro rozsáhlé útoky, vytváření deepfake hlasů a videí a dokonce i podpora simulovaných útoků.

Odborníci společnosti Kaspersky doporučují, aby jednotlivci i firmy používali bezpečnostní řešení nové generace k detekci malwaru generovaného umělou inteligencí a zároveň upřednostňovali ochranu dat. Firmy by měly implementovat nástroje pro monitorování v reálném čase, aby mohly sledovat zneužívání zranitelností vyvolaných umělou inteligencí; posílit kontrolu přístupu a školení zaměstnanců s cílem omezit působení umělé inteligence v temné zóně a riziko úniku dat; a zřídit operační centrum kybernetické bezpečnosti pro monitorování hrozeb a rychlou reakci na incidenty.

Zdroj: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Komentář (0)

Zanechte komentář a podělte se o své pocity!

Ve stejném tématu

Ve stejné kategorii

Od stejného autora

Dědictví

Postava

Firmy

Aktuální události

Politický systém

Místní

Produkt

Happy Vietnam
Vědění nemá věk, jen srdce, které se stále touží učit.

Vědění nemá věk, jen srdce, které se stále touží učit.

Harmonické manželství.

Harmonické manželství.

Zázraky uvnitř jeskyně Thien Duong, Quang Tri

Zázraky uvnitř jeskyně Thien Duong, Quang Tri