Co si myslíte o trendu hackerů „využívat“ umělou inteligenci jako zbraň k provádění kybernetických útoků a podvodů?
Dr. Nguyen Tuan Khang: Podle indexu hrozeb X-Force Threat Intelligence Index společnosti IBM z roku 2024 bude asijsko- pacifický region, včetně Vietnamu, v roce 2023 zasažen nejvíce kybernetickými útoky na světě. Z nich je výrobní odvětví nejvíce postižené kybernetickými útoky.
Hlavní metodou zlodějů jsou stále phishingové útoky cílené na zranitelné osoby a zneužívání zranitelností k instalaci malwaru. Kromě toho se v roce 2024 objevuje trend kybernetických útoků zahrnujících umělou inteligenci (AI).
Zpráva serveru Wired poukazuje na to, že mnoho zločinců používá generativní umělou inteligenci k navádění hackerů, vytváření podvodných chatbotů nebo vytváření deepfake obrázků a videí , které napodobují tváře a hlasy jiných lidí.
Spolu s tímto trendem však systémy informační bezpečnosti začínají integrovat i funkce umělé inteligence, jako například Watsonx. Umělá inteligence může být využívána, ale může také nahradit lidi při analýze, monitorování, identifikaci čísel, předpovídání scénářů útoků, čímž se zlepšují obranné schopnosti a minimalizují rizika pro informační bezpečnost.
Podvody typu deepfake jsou stále běžnější. S rychlým rozvojem umělé inteligence, jak nebezpečné budou tyto útoky v budoucnu?
Dr. Nguyen Tuan Khang: V podstatě je Deepfake technologie, která pomáhá hackerům vytvářet falešné digitální identity, a tím se vydávat za jiné. Deepfake bude nebezpečný problém, protože tato technologie se stává stále sofistikovanější.
V boji proti Deepfake je třeba nejprve zjistit, zda je obraz nebo hlas osoby generován umělou inteligencí. V současné době neexistuje univerzální nástroj, který by dokázal Deepfake okamžitě odhalit, protože útočníci neustále vyvíjejí nové modely.
Kromě detekce deepfake existuje další technika, jak se s ní vypořádat, a to využití technologií k analýze chování. Z organizačního a obchodního hlediska je nutné vyvinout systém, který obě tyto techniky kombinuje.
V poslední době došlo ke kybernetickým útokům, kdy hackeři tajně umístili malware do systémů společností. Malware číhá a analyzuje všechny aktivity, čímž vytváří falešnou identitu pro realizaci škodlivých úmyslů. S rozvojem technologie Deepfake v kombinaci s možností vytvářet videa pomocí umělé inteligence budou tyto typy útoků v budoucnu mnohem nebezpečnější.
Jak můžeme s eskalací kybernetických útoků Deepfake chránit seniory, děti a další zranitelné skupiny před podvodníky?
Dr. Nguyen Tuan Khang: Senioři a děti jsou často napadáni podvodníky, kteří používají techniku zvanou sociální inženýrství. Jedná se o termín, který popisuje útoky manipulací s lidským chováním.
Hackeři nyní mohou využívat umělou inteligenci v kombinaci se sběrem, dolováním a analýzou dat k identifikaci lidí, kteří by mohli být podvedeni, a poté najít způsoby, jak zaútočit. Kromě zvyšování povědomí v komunitě musíme také akceptovat, že k situacím, kdy budou uživatelé podvedeni, dojde, a musíme používat technologie k jejich odhalení a prevenci.
Nedávno se stal případ, kdy zaměstnanec banky měl podezření, že starší žena, která přišla převést peníze, vykazuje známky podvodu. Tato osoba následně transakci okamžitě zastavila a nahlásila ji úřadům. IT systémy bank nyní disponují technologiemi, které v těchto úkonech nahrazují lidi.
Úloha technologie spočívá v tom, že i když je známo, že odesílatel je skutečná osoba, systém stále zastaví převod, pokud existuje podezření, že s transakcí manipuluje někdo jiný. Takové nástroje se nazývají systémy pro prevenci podvodů.
Je načase, aby Vietnam zavedl sankce za řízení umělé inteligence a zasadil výzkum, vývoj a využití umělé inteligence do rámce?
Dr. Nguyen Tuan Khang: Otázka správy umělé inteligence se diskutuje již dlouho, nicméně stále existuje mnoho kontroverzí. Například parkoviště v mé oblasti má systém umělé inteligence pro rozpoznávání registračních značek, ale i tak docházelo ke krádežím. V té době se začala objevovat kontroverze o tom, čí to byla chyba. Měl by za to nést odpovědnost majitel bytu, ostraha nebo vývojář systému umělé inteligence?
Od té doby budova změnila svá pravidla a stanoví, že obyvatelé se mohou rozhodnout používat umělou inteligenci k rozpoznávání registračních značek pro větší pohodlí, ale musí akceptovat rizika. Ti, kteří s tím souhlasí, budou moci používat automatické dveře, ti, kteří ne, budou muset parkovat svá auta starým způsobem. Potřebujeme mít takové sankce.
Podobně IBM kdysi vyvinula systém umělé inteligence, který má pomáhat předcházet rakovině. Když systém předepsal lék, ale pacient ho vzal, ale stále ho nebylo možné zachránit, je to chyba lékaře, nebo chyba umělé inteligence?
Myslím, že regulace umělé inteligence musí být specifická a jasně stanovovat, co se při vývoji aplikací umělé inteligence smí a co nesmí dělat. Aby byl svět bezpečnější, nejzákladnější regulací, kterou můžeme udělat, je vyžadovat biometrické rozpoznávání velkých peněžních převodů. V takové situaci se lidé, kteří ztratí své identifikační údaje, mohou ztrátě peněz zcela vyhnout.
Děkuju.
Zdroj






Komentář (0)