Jak hodnotíte trend „vyzbrojování“ umělé inteligence hackery k provádění kybernetických útoků a podvodů?
Dr. Nguyen Tuan Khang: Podle zprávy IBM X-Force Threat Intelligence Index z roku 2024 patřil asijsko-pacifický region, včetně Vietnamu, v roce 2023 mezi tři regiony světa s nejvyšším počtem kybernetických útoků. Výroba byla sektorem nejvíce postiženým těmito kybernetickými útoky.
Hlavní taktikou používanou škodlivými aktéry zůstávají phishingové útoky zaměřené na zranitelné osoby a zneužívání zranitelností k instalaci malwaru. Kromě toho se v roce 2024 objevil nový trend - kybernetické útoky zahrnující umělou inteligenci (AI).
Zpráva serveru Wired naznačuje, že mnoho škodlivých aktérů používá obsah generovaný umělou inteligencí k navádění hackerských útoků, vytváření podvodných chatbotů nebo k produkci falešných obrázků a videí napodobujících tváře a hlasy jiných lidí pomocí technologie Deepfake.
Spolu s tímto trendem však systémy informační bezpečnosti začínají integrovat i funkce umělé inteligence, jako je WatsonX. Umělá inteligence může být zneužita, ale může také nahradit lidi v analýze, monitorování, digitální identifikaci a předpovídání scénářů útoků, čímž se posílí obranné schopnosti a minimalizují rizika pro informační bezpečnost.
Podvody typu deepfake se stávají stále běžnějšími. S rychlým rozvojem umělé inteligence, jak nebezpečné se tyto útoky stanou v budoucnu?
Dr. Nguyen Tuan Khang: V podstatě je Deepfake technologie, která hackerům umožňuje vytvářet falešné digitální identity, a tím se vydávat za jiné osoby. Deepfake bude nebezpečný problém, protože tato technologie se stává stále sofistikovanější.
V boji proti Deepfake je prvním krokem zjistit, zda byl něčí obraz nebo hlas vytvořen umělou inteligencí. V současné době neexistuje univerzální nástroj pro okamžitou detekci Deepfake, protože útočníci neustále vyvíjejí nové modely.
Kromě identifikace deepfaků je další technikou boje proti nim využití technologií k analýze chování. Z organizačního nebo obchodního hlediska je nutné vyvinout systém, který obě tyto techniky kombinuje.
V poslední době dochází ke kybernetickým útokům, kdy hackeři tajně pěstují malware v systému společnosti. Malware je neaktivní, analyzuje veškerou aktivitu a vytváří falešnou identitu, aby mohl plnit své škodlivé úmysly. S rozvojem technologie Deepfake a schopností tvorby videa s využitím umělé inteligence se tyto typy útoků v budoucnu stanou ještě nebezpečnějšími.
Vzhledem k eskalujícím kybernetickým útokům typu Deepfake, jak můžeme chránit seniory, děti a další zranitelné skupiny před podvodníky?
Dr. Nguyen Tuan Khang: Senioři a děti se často stávají terčem podvodníků, kteří používají techniku zvanou sociální inženýrství. Tento termín popisuje útoky, které manipulují s lidským chováním.
Hackeři nyní mohou využívat umělou inteligenci ve spojení se sběrem, zneužíváním a analýzou dat k identifikaci osob, které jsou vysoce náchylné k podvodům, a následnému útoku na ně. Kromě zvyšování povědomí veřejnosti musíme také akceptovat, že se vyskytnou situace, kdy budou uživatelé podvedeni, a musíme používat technologie k odhalování a prevenci takových incidentů.
Nedávno došlo k incidentu, kdy zaměstnanec banky měl podezření, že starší žena je při převodu peněz podvedena. Zaměstnanec okamžitě zasáhl a incident nahlásil úřadům. Bankovní IT systémy nyní potřebují technologie, které v takových záležitostech nahradí lidské zásahy.
Úloha technologie spočívá v tom, že i když je odesílatel znám jako legitimní vlastník, systém stále podnikne kroky k zablokování transakce, pokud má podezření na manipulaci ze strany někoho jiného. Takové nástroje se nazývají systémy pro prevenci podvodů.
Je načase, aby Vietnam zavedl předpisy pro řízení umělé inteligence a začlenil výzkum, vývoj a používání umělé inteligence do strukturovaného rámce?
Dr. Nguyen Tuan Khang: Otázka regulace umělé inteligence se diskutuje již dlouho, ale stále existuje mnoho kontroverzních bodů. Například parkoviště v mém sousedství má systém umělé inteligence pro rozpoznávání registračních značek, přesto stále dochází ke krádežím. Tehdy začala debata o tom, kdo je na vině. Měl by být zodpovědný majitel budovy, ostraha nebo vývojář systému umělé inteligence?
Od té doby budova změnila svá nařízení a stanovila, že obyvatelé si mohou pro své pohodlí zvolit rozpoznávání registračních značek s využitím umělé inteligence, ale museli akceptovat rizika. Ti, kteří souhlasili, mohli používat automatické brány, zatímco ti, kteří nesouhlasili, museli parkovat svá auta starým způsobem. Takový systém potřebujeme.
Podobně IBM kdysi vyvinula systém umělé inteligence, který má pomáhat předcházet rakovině. Když systém předepsal léky a pacient je vzal, ale stále ho nebylo možné zachránit, byla chyba na straně lékaře, nebo v umělé inteligenci?
Myslím, že regulace pro umělou inteligenci musí být specifické a jasně stanovovat, co je a co není povoleno při vývoji aplikací umělé inteligence. Aby byl svět bezpečnější, nejzákladnější regulací, kterou můžeme zavést, je požadavek na biometrické ověření velkých převodů peněz. V takové situaci by se lidé, jejichž identita byla ohrožena, mohli zcela vyhnout ztrátě peněz.
Děkuji vám, pane.
Zdroj






Komentář (0)