Mørk AI opererer utenfor sikkerhetsstandarder, og muliggjør ofte atferd som svindel, manipulasjon, cyberangrep eller datautnyttelse uten nøye tilsyn.
«Ondsinnede aktører utnytter også AI for å forbedre angrepskapasiteten sin. Den vanligste misbruken av AI i dag er fremveksten av Black Hat GPT-modeller. Dette er AI-modeller som er spesielt utviklet eller modifisert for å tjene ulovlige formål, som å lage skadelig programvare, utarbeide phishing-e-poster, generere tale og deepfake-videoer...», delte Sergey Lozhkin, leder for Global Research and Analysis Team (GReAT) for Midtøsten, Tyrkia, Afrika og Asia Pacific hos Kaspersky.
Black Hat GPT-er kan eksistere som helt private eller semi-private AI-modeller. Noen bemerkelsesverdige eksempler inkluderer WormGPT, DarkBard, FraudGPT og Xanthorox, alle designet for å betjene nettkriminalitet, svindel og ondsinnede automatiseringsaktiviteter.
Lozhkin avslørte at Kaspersky-eksperter nå observerer en enda mer bekymringsfull trend: Stats- eller myndighetsstøttede cyberangrepsgrupper begynner å utnytte store språkmodeller (LLM-er) i angrepskampanjene sine.
«OpenAI annonserte nylig at de har avverget mer enn 20 skjulte påvirkningskampanjer og cyberangrep som utnyttet deres AI-verktøy. Vi må møte stadig mer sofistikerte angripere som utnytter AI som våpen og blir en trussel i både offentlige og private økosystemer. Dette er en bekymringsfull trend som alle organisasjoner må forberede seg på å møte», delte Lozhkin.
Ifølge en OpenAI-rapport har ondsinnede aktører begynt å utnytte mulighetene til storskala maskinlæringsmodeller (LLM-er) for å lure ofre og omgå konvensjonelle sikkerhetslag. De kan lage overbevisende falske meldinger, sende massemeldinger til ofre og produsere innhold på flere språk.
For å forbedre forsvaret mot mørk AI-trusler anbefaler Kaspersky-eksperter: Bruk av neste generasjons sikkerhetsløsninger som Kaspersky Next for å oppdage AI-generert skadelig programvare og kontrollere risikoer i forsyningskjeden; bruk av verktøy for trusselintelligens i sanntid for å overvåke AI-drevet utnyttelse av sårbarheter; styrking av tilgangskontroll og opplæring av ansatte for å begrense risikoen for skygge-AI og datalekkasje; og etablering av et sikkerhetsoperasjonssenter (SOC) for å overvåke trusler og reagere raskt på hendelser.
Kilde: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Kommentar (0)