AI er i ferd med å bli en kraftig assistent for nettkriminelle. Foto: Cato Networks . |
Ikke bare vanlige brukere, men også nettkriminelle bruker i økende grad AI til å lage mer sofistikerte angrep enn noensinne. På mindre enn to år har AI-verktøy for å støtte hackere utviklet seg raskt når det gjelder funksjoner og effektivitet.
Adrian Hia, direktør for Kaspersky Asia og Japan (APJ), sa at mørk AI spiller en stor rolle i den raske veksten av skadelig programvare. Data fra Kaspersky viser at nesten en halv million skadelige programvarer opprettes hver dag.
«Mørk AI er som det mørke nettet – den mørke siden av nettet som vi bruker hver dag», sa Hia.
Sergey Lozhkin, leder for Kasperskys globale forsknings- og analyseteam (GReAT) for Asia- Stillehavsregionen (APAC) og Midtøsten, Afrika og Tyrkia (META), sa at mørk AI er helt forskjellig fra konvensjonelle AI-chatboter, som ChatGPT eller Gemini.
AI-en som brukerne er kjent med er laget for å hjelpe brukere med å utføre legitime oppgaver, og selv om de blir beordret til å lage skadelig programvare eller utføre ulovlige aktiviteter, vil brukerne ha problemer med å nå målene sine.
I mellomtiden er mørk AI «faktisk LLM eller chatbots laget utelukkende for å utføre ondsinnede aktiviteter i cyberspace», sa Lozhkin. Disse AI-ene er trent til å lage skadelig programvare, phishing-innhold eller til og med et komplett rammeverk som nettkriminelle kan bruke til svindel.
Skjult AI-system kun for anerkjente hackere
Disse systemene, som Lozhkin kaller Black Hat GPT eller «black hat GPT», har eksistert siden 2023. Kaspersky-representanter sa at AI-en på den tiden var veldig grunnleggende, skapte veldig dårlig kode og kunne oppdages umiddelbart.
Imidlertid har black hat GPT-systemer i den senere tid blitt mer komplette og i stand til å tilby mange funksjoner, fra å lage skadelig programvare og uredelig innhold til å etterligne stemmer og videoer . Noen navn inkluderer WormGPT, DarkBard eller FraudGPT.
![]() |
Sergey Lozhkin, en Kaspersky-forsker, advarer om at kvaliteten på mørk AI blir bedre og bedre. Foto: Minh Khoi. |
En av Kasperskys mest urovekkende oppdagelser var eksistensen av private mørke AI-systemer, kun tilgjengelig for anerkjente nettkriminelle. For å få tilgang til disse private AI-systemene må hackere bygge opp et rykte på undergrunnsfora.
«Du får bare tilgang til denne typen systemer hvis du er betrodd. Du må bygge opp et rykte på undergrunnsfora for å få tilgang til disse assistentene», sa Kaspersky-ekspert.
Lozhkin sa at Kaspersky har en «Digital Footprint Intelligence»-enhet som bruker årevis på å infiltrere undergrunnsfora og overvåke og spore aktivitet. Når selskapet har tilgang til nye systemer, fortsetter det å bruke mye tid på å forstå hvordan mørk AI brukes, dens funksjoner og effektivitet.
Mørk AI blir sterkere
Mørk AI er i ferd med å bli et effektivt verktøy for dyktige hackere. For de med bare grunnleggende programmeringskunnskaper, kan det å bruke en ransomware-generator bare skape programvare som lett gjenkjennes av antivirus. For dyktige og erfarne hackere kan imidlertid mørk AI øke kodingsproduktiviteten og skape ny skadelig programvare.
«Denne kvaliteten avhenger mye av hver spesifikke plattform eller mørk AI. Noen genererer kode av svært lav kvalitet, men det finnes også verktøy som kan oppnå 7–8 poeng av 10», delte Lozhkin med Tri Thuc – Znews .
Et eksempel er muligheten til å lage polymorf kode. Tidligere, når et stykke ondsinnet kode ble oppdaget av antivirus, måtte hackere bruke mye tid på å endre koden. Nå kan mørk AI gjøre dette «nesten umiddelbart» for å lage en versjon som er vanskeligere å oppdage.
I tillegg bryter mørke LLM-er språkbarrieren i phishing-angrep. Kaspersky-eksperter sier at den nye generasjonen phishing-e-poster er vanskeligere å få øye på på grunn av deres nesten perfekte engelsk, som til og med kan «se nøyaktig ut som administrerende direktørs stemme».
![]() |
Noen «alt-i-ett»-systemer for mørk kunstig intelligens kan generere kode, integrere stemmeetterligning og sende phishing-e-poster. Foto: Kaspersky. |
Evnen til å lage falske stemmer og bilder av det spesialiserte Dark AI-systemet blir også stadig mer perfekt. Lozhkin sa til og med at han «ikke lenger tror på videosamtaler» takket være sin erfaring som sikkerhetsarbeider.
Eksperter fra Kaspersky sa imidlertid også at brukere fortsatt kan gjenkjenne et svindelanrop gjennom personlig oppførsel, talevaner og noen unike egenskaper.
«Disse funksjonene er vanskelige å forfalske, så prøv å kontakte personen du tror blir forfalsket direkte», sa sikkerhetsforskeren til Tri Thuc – Znews .
"AI-våpenkappløp"
Utviklingen av mørk AI har utløst et teknologisk våpenkappløp mellom nettkriminelle og nettsikkerhetseksperter. «Jeg bruker personlig AI til alt nå – forskning, programmering, reverse engineering. Produktiviteten min i år er 10–20 ganger høyere enn før», innrømmer Lozhkin.
«Hvis du ikke bruker AI til å lage en forsvarsmekanisme mens de slemme bruker AI til å angripe, vil du tape. Dette er starten på et kappløp mellom de gode og de slemme som bruker AI», advarte han.
![]() |
Adrian Hia, direktør i Kaspersky APJ, sa at mørk AI bidrar til å lage skadelig programvare raskere. Foto: Minh Khoi. |
Google rapporterte at de blokkerte mer enn 20 ondsinnede aktiviteter fra statsstøttede grupper som forsøkte å bruke ChatGPT til å lage skadelig programvare og planlegge angrep. I 2024 identifiserte de 40 statsstøttede APT-grupper ved hjelp av AI-modeller.
Spesielt bekymringsfullt er fullverdige rammeverk som Xanthorox, som tilbyr en «fullpakke»-tjeneste for 200 dollar i måneden, og integrerer stemmegenerering, phishing-e-poster og andre angrepsverktøy i et brukervennlig grensesnitt.
Kaspersky-eksperter advarer om at mørk kunstig intelligens fortsatt er i sin spede begynnelse. Adrian Hia spår at kostnadene ved å bruke den vil bli mye billigere i løpet av de neste årene, og det er ennå ikke kjent hvor langt den vil utvikle seg.
«Men det jeg er helt sikker på er at vi vil være klare, for vi gjør det samme, men fra motsatt side», kommenterte Lozhkin.
Kilde: https://znews.vn/moi-nguy-khi-toi-pham-so-huu-ai-den-post1574400.html









Kommentar (0)