Kunstig intelligens (KI) som ChatGPT har vært en global sensasjon siden begynnelsen av 2023, men den brukes ikke alltid til positive formål. Nylig oppdaget en sikkerhetsekspert en måte å instruere ChatGPT til å generere ondsinnet kode under testing.
Aaron Mulgrew, en sikkerhetsekspert hos Forcepoint, delte risikoene ved å skrive ondsinnet kode ved hjelp av OpenAIs tospråklige chatbot. Selv om ChatGPT er designet for å forhindre at brukere ber AI om å designe skadelig programvare, fant Aaron en sårbarhet ved å lage kommandoer (ledetekster) for at den kunstige intelligensen skulle skrive kode linje for linje. Da dette ble kombinert, innså Aaron at han hadde i hendene et uoppdagbart datastyvende utførelsesverktøy, så sofistikert at det kan konkurrere med selv den mest avanserte skadelige programvaren som er tilgjengelig for øyeblikket.
Hver enkelt kodelinje generert av ChatGPT kan, når den kombineres, bli til sofistikert skadelig programvare.
Mulgrews oppdagelse fungerer som en vekker om potensialet for å utnytte AI til å lage farlig skadelig programvare uten behov for noen hackergrupper, og uten at skaperne engang skriver en eneste kodelinje selv.
Mulgrews skadevare er kamuflert som et skrivebordsprogram, men den kan aktiveres automatisk på Windows-enheter. Når den er inne i operativsystemet, «infiltrerer» skadevaren alle filer, inkludert Word-dokumenter, bildefiler og PDF-filer, for å søke etter data å stjele.
Når programmet har fått tak i informasjonen det trenger, bryter det den ned og legger den inn i bildefiler på datamaskinen. For å unngå å bli oppdaget lastes disse bildene opp til en mappe i Google Drive-skylagringen. Skadevaren blir utrolig kraftig fordi Mulgrew kan finjustere og forbedre funksjonene sine for å unngå å bli oppdaget gjennom enkle kommandoer som legges inn i ChatGPT.
Selv om dette var resultatet av en privat test utført av en sikkerhetsekspert, og ingen angrep ble utført utenfor testområdet, anerkjente cybersikkerhetseksperter fortsatt faren ved aktiviteter som bruker ChatGPT. Mulgrew uttalte at han selv ikke hadde mye erfaring med programmering, men OpenAIs kunstige intelligens var fortsatt ikke kraftig eller intelligent nok til å stoppe testen hans.
[annonse_2]
Kildekobling






Kommentar (0)