Kunstmatige intelligentie (AI) zoals ChatGPT is sinds begin 2023 een wereldwijde sensatie, maar deze AI wordt niet altijd voor positieve doeleinden gebruikt. Onlangs ontdekte een beveiligingsexpert een manier om ChatGPT te vragen schadelijke code te creëren tijdens het testen.
Aaron Mulgrew, beveiligingsexpert bij Forcepoint, deelde het risico van het schrijven van malware met behulp van de chatbot van OpenAI. Hoewel ChatGPT was ontworpen om te voorkomen dat gebruikers AI zouden vragen om malware te ontwerpen, vond Aaron toch een maas in de wet door de AI regel voor regel programmeercode te laten schrijven. Toen ze deze twee combineerden, realiseerde Aaron zich dat hij een ondetecteerbare tool voor het uitvoeren van datadiefstal in handen had, zo geavanceerd dat deze vergelijkbaar was met de meest geavanceerde malware van vandaag.
De combinatie van alle afzonderlijke opdrachtregels die ChatGPT genereert, kan leiden tot geavanceerde malware.
Mulgrews ontdekking is een wake-upcall over de mogelijkheid om AI te gebruiken om gevaarlijke malware te creëren, zonder dat er een hackersgroep aan te pas komt of dat de maker van de tool ook maar één regel code hoeft te schrijven.
Mulgrews software is vermomd als screensaver, maar kan automatisch worden geactiveerd op Windows-apparaten. Eenmaal in het besturingssysteem "infiltreert" de malware elk bestand, inclusief Word-teksteditors, afbeeldingsbestanden en pdf's, op zoek naar gegevens om te stelen.
Zodra het programma de benodigde informatie heeft, splitst het de informatie op en koppelt deze aan afbeeldingsbestanden op de machine. Om detectie te voorkomen, worden de afbeeldingen geüpload naar een map op Google Drive. De malware is zo krachtig omdat Mulgrew zijn functies kan aanpassen en verbeteren om detectie te voorkomen met behulp van eenvoudige opdrachten die in ChatGPT worden ingevoerd.
Hoewel dit een privétest was door beveiligingsexperts en er geen aanvallen buiten de testperiode werden uitgevoerd, erkent de cybersecuritygemeenschap nog steeds het gevaar van activiteiten met ChatGPT. Mulgrew beweert dat hij niet veel programmeerervaring heeft, maar de kunstmatige intelligentie van OpenAI is nog steeds niet sterk en slim genoeg om zijn test te voorkomen.
Bronlink
Reactie (0)