Mørk AI opererer utenfor sikkerhetsnormer, og tillater ofte atferd som svindel, manipulasjon, cyberangrep eller datautvinning uten nøye tilsyn.
«Skurkaktige aktører bruker også AI for å forbedre angrepskapasiteten sin. Det vanligste misbruket av AI i dag er fremveksten av Black Hat GPT-modeller. Dette er AI-modeller som er spesielt utviklet eller tilpasset for å tjene ulovlige formål, som å lage skadelig programvare, utforme phishing-e-poster, lage stemmer og deepfake-videoer ...», sa Sergey Lozhkin, leder for Global Research and Analysis Team (GReAT) med ansvar for Midtøsten, Tyrkia, Afrika og Asia- Stillehavsregionen hos Kaspersky.
Black Hat GPT-er kan eksistere som helt private eller semi-private AI-modeller. Noen bemerkelsesverdige eksempler inkluderer WormGPT, DarkBard, FraudGPT og Xanthorox ... alle designet for nettkriminalitet, svindel og ondsinnet automatisering.
Lozhkin avslørte at Kaspersky-eksperter nå registrerer en enda mer bekymringsfull trend, der nasjonalstatlige eller myndighetsstøttede cyberangrepsgrupper begynner å utnytte store språkmodeller (LLM-er) i angrepskampanjene sine.
«OpenAI annonserte nylig at de har forstyrret mer enn 20 skjulte påvirkningskampanjer og cyberangrep som utnyttet deres AI-verktøy. Vi vil se stadig mer sofistikerte angripere som utnytter AI som våpen, og som utgjør en trussel i både offentlige og private økosystemer. Dette er en bekymringsfull trend som alle organisasjoner må forberede seg på», sa Lozhkin.
Ondsinnede aktører har begynt å utnytte mulighetene til store maskinlæringsmodeller (LLM-er) for å lure ofre og omgå konvensjonelle sikkerhetslag, ifølge en rapport fra OpenAI. De kan lage overbevisende falske meldinger, sende meldinger til ofre i bulk og produsere innhold på flere språk.
For å styrke forsvaret mot mørk AI-trusler anbefaler Kaspersky-eksperter: Bruk av neste generasjons sikkerhetsløsninger som Kaspersky Next for å oppdage AI-generert skadelig programvare og kontrollere risikoer i forsyningskjeden. Bruk av verktøy for trusselintelligens i sanntid for å overvåke AI-drevne angrep. Styrking av tilgangskontroller og opplæring av ansatte for å begrense skygge-AI og risikoen for datalekkasje. Etablering av et sikkerhetsoperasjonssenter (SOC) for å overvåke trusler og reagere raskt på hendelser.
Kilde: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Kommentar (0)