Dark AI opereert buiten de veiligheidsnormen, waardoor er vaak sprake is van gedrag als fraude, manipulatie, cyberaanvallen en datamining zonder dat er nauwlettend toezicht op wordt gehouden.
Kwaadwillenden gebruiken AI ook om hun aanvalsmogelijkheden te vergroten. Het meest voorkomende misbruik van AI is de opkomst van Black Hat GPT-modellen. Dit zijn AI-modellen die speciaal zijn ontwikkeld of aangepast voor illegale doeleinden, zoals het creëren van malware, het opstellen van phishing-e-mails, het creëren van stemmen en deepfake-video's...", aldus Sergey Lozhkin, hoofd van het Global Research and Analysis Team (GReAT) en verantwoordelijk voor het Midden-Oosten, Turkije, Afrika en Azië- Pacific bij Kaspersky.
Black Hat GPT's kunnen bestaan als volledig private of semi-private AI-modellen. Enkele opvallende voorbeelden zijn WormGPT, DarkBard, FraudGPT en Xanthorox… allemaal ontworpen voor cybercriminaliteit, fraude en kwaadaardige automatisering.
De heer Lozhkin onthulde dat experts van Kaspersky nu een nog zorgwekkender trend waarnemen, namelijk dat cyberaanvalsgroepen die door natiestaten of overheden worden gesteund, grote taalmodellen (LLM's) in hun aanvalscampagnes gaan gebruiken.
"OpenAI heeft onlangs aangekondigd dat het meer dan 20 geheime beïnvloedingscampagnes en cyberaanvallen heeft verstoord die misbruik maakten van zijn AI-tools. We zullen steeds geavanceerdere aanvallers zien die AI als wapen inzetten, wat een bedreiging vormt voor zowel publieke als private ecosystemen. Dit is een zorgwekkende trend waar alle organisaties zich op moeten voorbereiden", aldus Lozhkin.
Kwaadwillende actoren zijn de mogelijkheden van grote machine learning-modellen (LLM's) gaan misbruiken om slachtoffers te misleiden en conventionele beveiligingslagen te omzeilen, aldus een rapport van OpenAI. Ze kunnen overtuigende nepberichten creëren, massaal berichten naar slachtoffers sturen en content in meerdere talen produceren.
Om de verdediging tegen Dark AI-dreigingen te versterken, adviseren Kaspersky-experts: Gebruik next-generation beveiligingsoplossingen zoals Kaspersky Next om door AI gegenereerde malware te detecteren en risico's in de toeleveringsketen te beheersen. Gebruik realtime threat intelligence-tools om AI-gestuurde exploits te monitoren. Versterk toegangscontroles en training van medewerkers om Shadow AI en het risico op datalekken te beperken. Richt een Security Operations Center (SOC) in om dreigingen te monitoren en snel te reageren op incidenten.
Bron: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Reactie (0)