Uit het rapport van OpenAI van oktober blijkt dat cybercriminelen wereldwijd vooral kunstmatige intelligentie (AI) integreren in bestaande aanvalsstrategieën om de prestaties te verbeteren, in plaats van volledig nieuwe aanvalstools of -methoden te ontwikkelen.
Volgens OpenAI had een groot deel van de gedetecteerde activiteiten betrekking op het gebruik van AI ter ondersteuning van bekende taken, zoals het ontwikkelen van malware, het opzetten van controle-infrastructuur, het maken van geavanceerdere phishing-e-mails en het verzamelen van informatie over doelwitten.
"De geblokkeerde teams integreerden AI grotendeels in bestaande processen, in plaats van nieuwe processen op basis van AI te bouwen", aldus het rapport.
Uit het rapport blijkt ook dat veel gebruikersgroepen grote taalmodellen (LLM's) hebben ingezet om kennis te vergaren uit uiteenlopende technische domeinen, van applicatieontwikkeling tot configuratie van netwerksystemen. Vaak doen ze dat op een manier waardoor elk account gespecialiseerd is in een specifieke taak.
Er zijn verschillende andere gebruikersnetwerken geïdentificeerd die AI-platforms gebruiken om online content te genereren, waaronder artikelen, afbeeldingen en video's , om mediacampagnes te ondersteunen of bepaalde standpunten te promoten. De meeste van deze accounts zijn echter ineffectief en kennen een zeer lage betrokkenheid.
Daarnaast heeft OpenAI ook het fenomeen gesignaleerd van fraudecentra en cybercriminelen die ChatGPT gebruiken ter ondersteuning van online fraudeactiviteiten in Myanmar en Cambodja. Sommige gevallen laten zien dat AI niet alleen wordt gebruikt om content te bewerken, maar ook om werkroosters, personeelszaken en financiën te beheren.
OpenAI merkt echter op dat AI ook actief wordt ingezet om fraude te voorkomen. Naar schatting wordt ChatGPT drie keer vaker gebruikt om oplichting te identificeren en te voorkomen dan om fraude te plegen.
De meeste kwaadaardige verzoeken worden door het systeem afgewezen, maar het rapport merkt op dat er nog steeds een 'grijze zone' bestaat waarin technische of op onderzoek gebaseerde verzoeken voor onbedoelde doeleinden kunnen worden misbruikt.
OpenAI beweert echter dat de gecreëerde code of inhoud niet schadelijk is totdat deze buiten het platform wordt misbruikt.
(TTXVN/Vietnam+)
Bron: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
Reactie (0)