Vietnam.vn - Nền tảng quảng bá Việt Nam

Beveiligingsexpert 'misleidt' ChatGPT tot het schrijven van schadelijke code

Báo Thanh niênBáo Thanh niên15/04/2023


Kunstmatige intelligentie (AI) zoals ChatGPT is sinds begin 2023 een wereldwijde sensatie, maar deze AI wordt niet altijd voor positieve doeleinden gebruikt. Onlangs ontdekte een beveiligingsexpert een manier om ChatGPT te vragen schadelijke code te creëren tijdens het testen.

Aaron Mulgrew, beveiligingsexpert bij Forcepoint, deelde het risico van het schrijven van malware met behulp van de chatbot van OpenAI. Hoewel ChatGPT was ontworpen om te voorkomen dat gebruikers AI zouden vragen om malware te ontwerpen, vond Aaron toch een maas in de wet door de AI regel voor regel programmeercode te laten schrijven. Toen ze deze twee combineerden, realiseerde Aaron zich dat hij een ondetecteerbare tool voor het uitvoeren van datadiefstal in handen had, zo geavanceerd dat deze vergelijkbaar was met de meest geavanceerde malware van vandaag.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

De combinatie van alle afzonderlijke opdrachtregels die ChatGPT genereert, kan leiden tot geavanceerde malware.

Mulgrews ontdekking is een wake-upcall over de mogelijkheid om AI te gebruiken om gevaarlijke malware te creëren, zonder dat er een hackersgroep aan te pas komt of dat de maker van de tool ook maar één regel code hoeft te schrijven.

Mulgrews software is vermomd als screensaver, maar kan automatisch worden geactiveerd op Windows-apparaten. Eenmaal in het besturingssysteem "infiltreert" de malware elk bestand, inclusief Word-teksteditors, afbeeldingsbestanden en pdf's, op zoek naar gegevens om te stelen.

Zodra het programma de benodigde informatie heeft, splitst het de informatie op en koppelt deze aan afbeeldingsbestanden op de machine. Om detectie te voorkomen, worden de afbeeldingen geüpload naar een map op Google Drive. De malware is zo krachtig omdat Mulgrew zijn functies kan aanpassen en verbeteren om detectie te voorkomen met behulp van eenvoudige opdrachten die in ChatGPT worden ingevoerd.

Hoewel dit een privétest was door beveiligingsexperts en er geen aanvallen buiten de testperiode werden uitgevoerd, erkent de cybersecuritygemeenschap nog steeds het gevaar van activiteiten met ChatGPT. Mulgrew beweert dat hij niet veel programmeerervaring heeft, maar de kunstmatige intelligentie van OpenAI is nog steeds niet sterk en slim genoeg om zijn test te voorkomen.



Bronlink

Reactie (0)

No data
No data

In hetzelfde onderwerp

In dezelfde categorie

Verdwaald in de wolkenjacht in Ta Xua
Er is een heuvel met paarse Sim-bloemen in de lucht van Son La
Lantaarn - Een geschenk ter nagedachtenis aan het Midherfstfestival
Tò he – van een kindercadeau tot een kunstwerk van een miljoen dollar

Van dezelfde auteur

Erfenis

;

Figuur

;

Bedrijf

;

No videos available

Nieuws

;

Politiek systeem

;

Lokaal

;

Product

;