Mörk AI opererar utanför säkerhetsnormerna och möjliggör ofta beteenden som bedrägerier, manipulation, cyberattacker eller datautvinning utan noggrann tillsyn.
”Obehöriga aktörer använder också AI för att förbättra sina attackmöjligheter. Det vanligaste missbruket av AI idag är framväxten av Black Hat GPT-modeller. Dessa är AI-modeller som är specifikt utvecklade eller anpassade för att tjäna olagliga syften som att skapa skadlig kod, skriva nätfiskemejl, skapa röster och djupförfalskade videor…”, säger Sergey Lozhkin, chef för Global Research and Analysis Team (GReAT) med ansvar för Mellanöstern, Turkiet, Afrika och Asien- Stillahavsområdet på Kaspersky.
Black Hat GPT:er kan existera som helt privata eller halvprivata AI-modeller. Några anmärkningsvärda exempel inkluderar WormGPT, DarkBard, FraudGPT och Xanthorox ... alla utformade för cyberbrottslighet, bedrägerier och skadlig automatisering.
Lozhkin avslöjade att Kasperskys experter nu registrerar en ännu mer oroande trend, där nationalstatliga eller regeringsstödda cyberattackgrupper börjar utnyttja stora språkmodeller (LLM) i sina attackkampanjer.
”OpenAI meddelade nyligen att de har stört fler än 20 hemliga påverkanskampanjer och cyberattacker som utnyttjade deras AI-verktyg. Vi kommer att se alltmer sofistikerade angripare använda AI som vapen, vilket utgör ett hot i både offentliga och privata ekosystem. Detta är en oroande trend som alla organisationer behöver förbereda sig för”, sa Lozhkin.
Illvilliga aktörer har börjat utnyttja möjligheter hos stora maskininlärningsmodeller (LLM) för att lura offer och kringgå konventionella säkerhetslager, enligt en rapport från OpenAI. De kan skapa övertygande falska meddelanden, skicka meddelanden till offer i bulk och producera innehåll på flera språk.
För att stärka försvaret mot hot från mörk AI rekommenderar Kasperskys experter: Att använda nästa generations säkerhetslösningar som Kaspersky Next för att upptäcka AI-genererad skadlig kod och kontrollera risker i leveranskedjan. Att tillämpa verktyg för hotinformation i realtid för att övervaka AI-drivna attacker. Att stärka åtkomstkontroller och personalutbildning för att begränsa skugg-AI och risken för dataläckage. Att etablera ett säkerhetsoperationscenter (SOC) för att övervaka hot och reagera snabbt på incidenter.
Källa: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Kommentar (0)