Mörk AI fungerar utanför säkerhetsstandarder och möjliggör ofta beteenden som bedrägerier, manipulation, cyberattacker eller dataexploatering utan noggrann tillsyn.
”Illvilliga aktörer utnyttjar också AI för att förbättra sina attackmöjligheter. Det vanligaste missbruket av AI idag är framväxten av Black Hat GPT-modeller. Dessa är AI-modeller som är specifikt utvecklade eller modifierade för att tjäna olagliga syften som att skapa skadlig kod, skriva nätfiskemejl, generera röst- och djupförfalskningsvideor…”, delade Sergey Lozhkin, chef för Global Research and Analysis Team (GReAT) för Mellanöstern, Turkiet, Afrika och Asien -Stillahavsområdet på Kaspersky.
Black Hat GPT:er kan existera som helt privata eller halvprivata AI-modeller. Några anmärkningsvärda exempel inkluderar WormGPT, DarkBard, FraudGPT och Xanthorox, alla utformade för att hantera cyberbrottslighet, bedrägerier och skadlig automatisering.
Lozhkin avslöjade att Kasperskys experter nu observerar en ännu mer oroande trend: stats- eller regeringsstödda cyberattackgrupper börjar utnyttja stora språkmodeller (LLM) i sina attackkampanjer.
”OpenAI meddelade nyligen att de har motarbetat fler än 20 dolda påverkanskampanjer och cyberattacker som utnyttjat deras AI-verktyg. Vi kommer att behöva möta alltmer sofistikerade angripare som beväpnar AI och blir ett hot i både offentliga och privata ekosystem. Detta är en oroande trend som alla organisationer måste förbereda sig på att möta”, delade Lozhkin.
Enligt en rapport från OpenAI har illvilliga aktörer börjat utnyttja möjligheter hos storskaliga maskininlärningsmodeller (LLM) för att lura offer och kringgå konventionella säkerhetslager. De kan skapa övertygande falska meddelanden, skicka massmeddelanden till offer och producera innehåll på flera språk.
För att förbättra försvaret mot hot från mörk AI rekommenderar Kasperskys experter: Att använda nästa generations säkerhetslösningar som Kaspersky Next för att upptäcka AI-genererad skadlig kod och kontrollera risker i leveranskedjan; tillämpa verktyg för hotinformation i realtid för att övervaka AI-driven sårbarhetsexploatering; stärka åtkomstkontroll och personalutbildning för att begränsa risker för skugg-AI och dataläckage; och inrätta ett säkerhetsoperationscenter (SOC) för att övervaka hot och reagera snabbt på incidenter.
Källa: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Kommentar (0)