S tím, jak se umělá inteligence stává dostupnější a stále více jednotlivců a firem ji využívá prostřednictvím běžných nástrojů, mohou hackeři současně automatizovat útoky, zrychlovat provozní procesy a nasazovat sofistikovanější kampaně k dosažení svých nelegálních cílů.
Následují některé z metod útoku, které společnost Kaspersky pozorovala: ChatGPT lze použít k vývoji malwaru a automatickému nasazení útoků na více obětí; programy umělé inteligence infiltrují uživatelská data v chytrých telefonech a prostřednictvím analýzy citlivých dat mohou útočníci obětem kompletně „ukrást“ zprávy, hesla a bankovní kódy; algoritmy Swarm intelligence pomáhají počítačovým sítím automaticky (bonet) obnovit škodlivé sítě, které byly eliminovány bezpečnostními řešeními.
Výzkum společnosti Kaspersky o využití umělé inteligence k prolomení hesel naznačuje, že většina hesel je šifrována pomocí hašovacích algoritmů, jako jsou MD5 a SHA. Jednoduchá operace tedy může heslo přeměnit na řádek šifrovaného textu, ale obrácení celého procesu je značná výzva.
Prostřednictvím umělé inteligence mohou útočníci zneužívat podvodný obsah, včetně textu, obrázků, zvuku a videa , k zahájení netechnických útoků. Rozsáhlé jazykové modely, jako je ChatGPT-4o, se využívají k vytváření vysoce sofistikovaných phishingových scénářů a zpráv. Umělá inteligence dokáže překonat jazykové bariéry a napsat zdánlivě autentický e-mail pouze na základě informací ze sociálních médií. Dokáže dokonce napodobit styl psaní oběti, což podvod ještě více ztěžuje odhalení.
Technologie Deepfake se mezitím ukázala jako „problém“ v kybernetické bezpečnosti, přestože byla dříve považována za produkt vědeckého výzkumu. Nejběžnější metodou je vydávání se za celebrity za účelem finančního zisku; podvodníci navíc používají Deepfake k krádeži účtů a k telefonování přátelům a příbuzným obětí s vydáváním se za osoby, které je kontaktují, aby je vymáhali.
Kromě zneužívání technologie umělé inteligence k nelegálním aktivitám mohou útočníci útočit i na algoritmy umělé inteligence. Patří sem útoky typu „prompt injection“, kdy jsou škodlivé příkazy vkládány do rozsáhlých jazykových modelů, a to i v rozporu s dříve omezenými pravidly, a útoky typu adversarial, kdy jsou k obrázkům nebo zvuku přidávána skrytá informační pole, která ovlivňují schopnosti systémů strojového učení klasifikovat obrazy.
Umělá inteligence se stále více integruje do všech aspektů lidského života, od Apple Intelligence a Google Gemini až po Microsoft Copilot. Řešení zranitelností umělé inteligence by proto mělo být nejvyšší prioritou. Společnost Kaspersky používá technologii umělé inteligence k ochraně svých zákazníků a partnerů již mnoho let, neustále vyhledává zranitelnosti v systémech umělé inteligence, aby zvýšila jejich odolnost, a aktivně zkoumá techniky kybernetických útoků, aby poskytla spolehlivou ochranu před útoky založenými na umělé inteligenci.
KIM THANH
Zdroj: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html






Komentář (0)