I takt med att AI blir mer tillgängligt, och fler individer och företag använder AI genom vanliga verktyg, kan hackare samtidigt automatisera attacker, accelerera operativa processer och implementera mer sofistikerade kampanjer för att uppnå sina olagliga mål.
Följande är några av de attackmetoder som Kaspersky har observerat: ChatGPT kan användas för att utveckla skadlig kod och automatiskt distribuera attacker till flera offer; AI-program infiltrerar användardata på smartphones, och genom analys av känsliga data kan angripare helt "stjäla" meddelanden, lösenord och bankkoder från offer; Swarm intelligence-algoritmer hjälper datornätverk att automatiskt (bonet) återställa skadliga nätverk som har eliminerats av säkerhetslösningar.
Kasperskys forskning om att använda AI för att knäcka lösenord visar att de flesta lösenord krypteras med hashalgoritmer som MD5 och SHA. Därför kan en enkel operation omvandla ett lösenord till en rad krypterad text, men att vända hela processen är en betydande utmaning.
Genom AI kan illvilliga aktörer utnyttja bedrägligt innehåll, inklusive text, bilder, ljud och video , för att utföra icke-tekniska attacker. Stora språkmodeller som ChatGPT-4o utnyttjas för att skapa mycket sofistikerade nätfiskescenarier och meddelanden. Genom att övervinna språkbarriärer kan AI skriva ett till synes autentiskt e-postmeddelande baserat enbart på information från sociala medier. Den kan till och med härma offrets skrivstil, vilket gör bedrägeriet ännu svårare att upptäcka.
Samtidigt har Deepfake-tekniken framstått som ett "problem" inom cybersäkerhet, trots att den tidigare ansågs vara en produkt av vetenskaplig forskning. Att utge sig för att vara kändisar för ekonomisk vinning är den vanligaste metoden; dessutom använder bedragare Deepfake för att stjäla konton och ringa imiterade samtal till offrens vänner och släktingar för att utpressa pengar.
Förutom att utnyttja AI-teknik för olagliga aktiviteter kan illvilliga aktörer även attackera AI-algoritmer. Detta inkluderar "prompt injection"-attacker, där skadliga kommandon injiceras i stora språkmodeller, även i strid med tidigare begränsade regler; och adversarial attacker, där dolda informationsfält läggs till i bilder eller ljud för att påverka bildklassificeringsmöjligheterna hos maskininlärningssystem.
AI integreras alltmer i alla aspekter av mänskligt liv, från Apple Intelligence och Google Gemini till Microsoft Copilot. Därför bör åtgärda AI-sårbarheter vara högsta prioritet. Kaspersky har använt AI-teknik för att skydda sina kunder och partners i många år, kontinuerligt sökt efter sårbarheter i AI-system för att öka deras motståndskraft och aktivt forskat efter cyberattacktekniker för att ge tillförlitligt skydd mot AI-baserade attacker.
Kim Thanh
[annons_2]
Källa: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html






Kommentar (0)