Inteligența artificială (IA), precum ChatGPT, a fost o senzație globală încă de la începutul anului 2023, dar această IA nu este întotdeauna folosită în scopuri pozitive. Recent, un expert în securitate a găsit o modalitate de a solicita ChatGPT să creeze cod malițios în timpul testării.
Aaron Mulgrew, expert în securitate la Forcepoint, a împărtășit riscul scrierii de programe malware folosind chatbot-ul de limbaj OpenAI. Deși ChatGPT a fost conceput pentru a împiedica utilizatorii să ceară inteligenței artificiale să proiecteze programe malware, Aaron a găsit totuși o lacună prin crearea de solicitări pentru ca inteligența artificială să scrie cod de programare linie cu linie. Când au fost combinate, Aaron și-a dat seama că avea în mâini un instrument de executare a furtului de date nedetectabil, atât de sofisticat încât era comparabil cu cel mai sofisticat malware din ziua de azi.
Fiecare linie de comandă individuală generată de ChatGPT, atunci când este combinată, poate deveni un malware sofisticat.
Descoperirea lui Mulgrew este un semnal de alarmă cu privire la potențialul utilizării inteligenței artificiale pentru a crea programe malware periculoase, fără a fi nevoie de un grup de hackeri sau chiar de creatorul instrumentului care să scrie o singură linie de cod.
Software-ul lui Mulgrew este deghizat într-o aplicație de economisire a ecranului, dar este capabil să se activeze automat pe dispozitivele cu Windows. Odată ajuns în sistemul de operare, malware-ul „se infiltrează” în fiecare fișier, inclusiv editori de text Word, fișiere imagine și PDF-uri, căutând date pe care să le fure.
Odată ce are ceea ce are nevoie, programul descompune informațiile și le atașează la fișiere imagine de pe computer. Pentru a evita detectarea, imaginile sunt încărcate într-un folder din Google Drive. Malware-ul este atât de puternic deoarece Mulgrew poate modifica și îmbunătăți funcțiile sale pentru a evita detectarea prin comenzi simple introduse în ChatGPT.
Deși acesta a fost un test privat realizat de experți în securitate și nu au fost efectuate atacuri în afara domeniului de testare, comunitatea de securitate cibernetică recunoaște în continuare pericolul activităților care utilizează ChatGPT. Mulgrew susține că nu are multă experiență în programare, dar inteligența artificială a OpenAI încă nu este suficient de puternică și inteligentă pentru a preveni testul său.
Legătură sursă
Comentariu (0)