Temná umělá inteligence funguje mimo bezpečnostní normy a často umožňuje chování, jako jsou podvody, manipulace, kybernetické útoky nebo dolování dat bez pečlivého dohledu.
„Zločinci také využívají umělou inteligenci ke zlepšení svých útočných schopností. Nejčastějším zneužíváním umělé inteligence je dnes vznik modelů Black Hat GPT. Jedná se o modely umělé inteligence speciálně vyvinuté nebo upravené k nelegálním účelům, jako je vytváření malwaru, psaní phishingových e-mailů, vytváření hlasů a deepfake videí…“, uvedl Sergej Ložkin, vedoucí globálního výzkumného a analytického týmu (GReAT) ve společnosti Kaspersky, který má na starosti oblast Blízkého východu, Turecka, Afriky a Asie a Tichomoří .
Black Hat GPT mohou existovat jako plně soukromé nebo polosoukromé modely umělé inteligence. Mezi pozoruhodné příklady patří WormGPT, DarkBard, FraudGPT a Xanthorox… všechny určené pro kyberkriminalitu, podvody a škodlivou automatizaci.
Pan Ložkin prozradil, že experti společnosti Kaspersky nyní zaznamenávají ještě znepokojivější trend, kdy kybernetické útočné skupiny podporované státy nebo vládami začínají ve svých útočných kampaních využívat modely velkých jazyků (LLM).
„OpenAI nedávno oznámila, že narušila více než 20 tajných kampaní na získávání vlivu a kybernetických útoků, které zneužívaly její nástroje umělé inteligence. Budeme svědky stále sofistikovanějších útočníků, kteří budou umělou inteligenci využívat jako zbraň a představovat hrozbu ve veřejných i soukromých ekosystémech. To je znepokojivý trend, na který se musí všechny organizace připravit,“ řekl Ložkin.
Podle zprávy OpenAI začali útočníci využívat schopnosti velkých modelů strojového učení (LLM) k oklamání obětí a obcházení konvenčních bezpečnostních vrstev. Mohou vytvářet přesvědčivé falešné zprávy, hromadně posílat zprávy obětem a produkovat obsah ve více jazycích.
Pro posílení obrany proti hrozbám temné umělé inteligence (Dark AI) experti společnosti Kaspersky doporučují: Používání bezpečnostních řešení nové generace, jako je Kaspersky Next, k detekci malwaru generovaného umělou inteligencí a kontrole rizik v dodavatelském řetězci. Aplikování nástrojů pro analýzu hrozeb v reálném čase k monitorování zneužití vyvolaného umělou inteligencí. Posílení kontrol přístupu a školení zaměstnanců s cílem omezit stínovou umělou inteligenci a riziko úniku dat. Zřízení Centra bezpečnostních operací (SOC) pro monitorování hrozeb a rychlou reakci na incidenty.
Zdroj: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Komentář (0)