Co si myslíte o trendu hackerů „využívat“ umělou inteligenci jako zbraň k provádění kybernetických útoků a podvodů?

Dr. Nguyen Tuan Khang: Podle indexu hrozeb X-Force Threat Intelligence Index společnosti IBM z roku 2024 je asijsko- pacifický region, včetně Vietnamu, regionem, který v roce 2023 utrpěl nejvíce kybernetických útoků na světě. Z nich je výrobní odvětví nejvíce postižené kybernetickými útoky.

Hlavní metodou zlodějů jsou stále phishingové útoky cílené na zranitelné osoby a zneužívání zranitelností k instalaci malwaru. Kromě toho se v roce 2024 objevuje trend kybernetických útoků zahrnujících umělou inteligenci (AI).

Zpráva serveru Wired poukazuje na to, že mnoho zločinců používá generativní umělou inteligenci k navádění hackerů, vytváření podvodných chatbotů nebo falešných obrázků a videí tváří a hlasů jiných lidí pomocí Deepfake.

Spolu s tímto trendem však systémy informační bezpečnosti začínají integrovat i funkce umělé inteligence, jako například Watsonx. Umělá inteligence může být využívána, ale může také nahradit lidi při analýze, monitorování, identifikaci čísel, předpovídání scénářů útoků, čímž se zlepšují obranné schopnosti a minimalizují rizika informační bezpečnosti.

W-nguyen-tuan-khang-ibm-1.jpg
Expert na kybernetickou bezpečnost Nguyen Tuan Khang. Foto: Trong Dat

Podvody typu deepfake jsou stále běžnější. S rychlým rozvojem umělé inteligence, jak nebezpečné budou tyto útoky v budoucnu?

Dr. Nguyen Tuan Khang: Deepfake je v podstatě technologie, která pomáhá hackerům vytvářet falešné digitální identity, a tím se vydávat za jiné. Deepfake bude nebezpečný problém, protože tato technologie se stává stále sofistikovanější.

V boji proti Deepfakes je třeba nejprve zjistit, zda je obraz nebo hlas osoby generován umělou inteligencí. V současné době neexistuje univerzální nástroj, který by dokázal Deepfakes okamžitě odhalit, protože útočníci neustále vyvíjejí nové modely.

Kromě detekce deepfake existuje další technika, jak se s ní vypořádat, a to využití technologií k analýze chování. Z organizačního a obchodního hlediska je nutné vyvinout systém, který obě tyto techniky kombinuje.

V poslední době došlo ke kybernetickým útokům, kdy hackeři tajně umístili malware do systémů společností. Malware číhá a analyzuje všechny aktivity, čímž vytváří falešnou identitu pro realizaci škodlivých úmyslů. S rozvojem technologie Deepfake v kombinaci s možností vytvářet videa pomocí umělé inteligence budou tyto typy útoků v budoucnu mnohem nebezpečnější.

Jak můžeme s eskalací kybernetických útoků Deepfake chránit seniory, děti a další zranitelné skupiny před podvodníky?

Dr. Nguyen Tuan Khang: Senioři a děti jsou často napadáni podvodníky, kteří používají techniku ​​zvanou sociální inženýrství. Jedná se o termín, který popisuje útoky manipulací s lidským chováním.

Hackeři nyní mohou využívat umělou inteligenci v kombinaci se sběrem, dolováním a analýzou dat k identifikaci lidí, kteří by mohli být podvedeni, a poté najít způsoby, jak zaútočit. Kromě zvyšování povědomí v komunitě musíme také akceptovat, že k situacím, kdy budou uživatelé podvedeni, dojde, a musíme používat technologie k jejich odhalení a prevenci.

W-online-podvod-1.jpg
Varování před případy vydávání se za policisty za účelem podvodů s převody peněz policií v okrese Thanh Luong ( Hanoj ). Foto: Trong Dat

Nedávno se stal případ, kdy zaměstnanec banky měl podezření, že starší žena, která přišla převést peníze, vykazuje známky podvodu. Tato osoba následně transakci okamžitě zastavila a nahlásila ji úřadům. IT systémy bank nyní disponují technologiemi, které v těchto úkonech nahrazují lidi.

Úloha technologie spočívá v tom, že i když je známo, že odesílatel je skutečná osoba, systém tomuto chování stále zabrání, pokud existuje podezření, že s ním manipuluje někdo jiný. Takové nástroje se nazývají systémy pro zmírňování podvodů a padělání.

Je načase, aby Vietnam zavedl sankce za řízení umělé inteligence a zasadil výzkum, vývoj a využití umělé inteligence do rámce?

Dr. Nguyen Tuan Khang: Sankce za správu s využitím umělé inteligence se zmiňují již dlouho, nicméně stále existuje mnoho kontroverzí. Například parkoviště v mé oblasti má systém umělé inteligence pro rozpoznávání registračních značek, ale i tak docházelo ke krádežím. V té době se začaly objevovat spory o to, čí to byla chyba. Měl by za to nést odpovědnost majitel bytu, ostraha nebo jednotka, která systém umělé inteligence vyvíjí?

Od té doby budova změnila svá pravidla a stanoví, že obyvatelé se mohou rozhodnout používat umělou inteligenci k rozpoznávání registračních značek pro větší pohodlí, ale musí akceptovat rizika. Ti, kteří s tím souhlasí, budou moci používat automatické dveře, ti, kteří ne, budou muset parkovat svá auta starým způsobem. Potřebujeme mít takové sankce.

Podobně IBM kdysi vyvinula systém umělé inteligence, který má pomáhat předcházet rakovině. Když systém předepíše lék, ale pacienta po jeho užití stále nelze zachránit, je to chyba lékaře, nebo chyba umělé inteligence?

Myslím, že regulace umělé inteligence musí být specifická a jasně stanovovat, co se při vývoji aplikací umělé inteligence smí a co nesmí dělat. Aby byl svět bezpečnější, nejzákladnější regulací, kterou můžeme udělat, je vyžadovat biometrické ověřování velkých převodů peněz. V takové situaci se lidé, kteří ztratí své identifikační údaje, mohou ztrátě peněz zcela vyhnout.

Děkuji vám, pane.

Podvody Deepfake, falešné obličeje a hlas se v roce 2024 zvýší Podle prognózy VSEC se v roce 2024 zvýší počet kybernetických útoků využívajících umělou inteligenci, včetně podvodů Deepfake zaměřených na falešné obličeje a hlasy.