
Sofistikovanější hrozby se přímo zaměřují na integritu a spolehlivost modelů umělé inteligence.
V souladu s tím se do roku 2026 oblast kybernetické bezpečnosti stane složitější, přičemž největší hrozbou bude „vyzrálost“ kybernetických útoků využívajících umělou inteligenci (AI).
Útok s novou technologií od umělé inteligence
Podle společnosti Fortinet vývoj generativní umělé inteligence „demokratizoval“ technologie, přinesl vysokou efektivitu, ale zároveň dal kontrolu více lidem, což zvýšilo bezpečnostní rizika.
Modely umělé inteligence postrádají transparentnost a nahrávání citlivých dat do cloudu zvyšuje potenciál úniku osobních údajů a duševního vlastnictví.
Zejména útočníci vyvíjejí sofistikované metody, jak zneužívat zranitelnosti v umělé inteligenci.
Mezi formy modelových útoků patří manipulace se vstupními daty s cílem oklamat umělou inteligenci a přimět ji k falešným předpovědím, útoky typu „otrava“ dat a nejnebezpečnější forma, Prompt Injection – vkládání skrytých instrukcí, které způsobí, že umělá inteligence obchází bezpečnostní pravidla nebo provádí škodlivé příkazy.
Do roku 2026 budou mít modely umělé inteligence přístup k citlivějším datům a automatizované komunikaci mezi technologickými agenty, což umožní rozsáhlé útoky.
Deepfake a psychologická manipulace na vysoké úrovni.
Spolu s tím se předpokládá, že Deepfake posune podvody a psychologickou manipulaci (sociální inženýrství) na novou úroveň. Umělá inteligence má schopnost vytvářet zvuky, obrázky a videa , u kterých je téměř nemožné rozlišit mezi skutečnými a falešnými.
Deepfake jako služba bude široce využívána k provádění vysoce cílených útoků, jako je kompromitace firemních e-mailů (BEC), phishing a vydírání, což donutí organizace čelit dezinformacím mnohem obtížněji kontrolovatelným způsobem.
Zjednodušování špionáže pomocí umělé inteligence v kombinaci s růstem „služebných“ a sponzorovaných skupin kybernetické kriminality bude i nadále podporovat útoky zaměřené na nadnárodní organizace s obratem mnoha miliard dolarů.
Nové cíle útoku
Spolu s umělou inteligencí vytvářejí nové cíle pro útočníky i nově vznikající technologie. Vesmírné GPS systémy byly identifikovány jako hlavní cíl, kde by útočníci mohli rušit, blokovat nebo falšovat signály a podkopávat tak kritickou infrastrukturu.
Exploze satelitního internetu s sebou nese i rizika, protože nešifrovaná data lze snadno zachytit pomocí jednoduchých přijímačů. Zároveň kvantové výpočty, i když nepředstavují bezprostřední hrozbu, zůstávají vážným varováním; kvantové počítače dokáží prolomit téměř jakékoli existující šifrování, což útočníkům umožňuje použít strategii „nejprve shromažďovat data, pak dešifrovat“, zatímco čekají na dozrání technologie.
V kontextu stále nebezpečnějších kybernetických útoků musí manažeři kybernetické bezpečnosti změnit své staré způsoby práce. Musí být více než jen technickými experty; musí se stát stratégy, kteří promění bezpečnost ve faktor, který pomáhá společnosti růst a stát se důvěryhodnější. Musí využívat umělou inteligenci k rychlé detekci a zastavení útoků. A co je důležitější, musí důsledně chránit systémy umělé inteligence ve společnosti.
Zdroj: https://tuoitre.vn/nam-2026-the-gioi-se-bi-sieu-tan-cong-mang-chua-tung-co-vi-ai-bi-thao-tung-20251208160719164.htm










Komentář (0)