Vietnam.vn - Nền tảng quảng bá Việt Nam

Expert în securitate „păcălește” ChatGPT să scrie programe malware.

Báo Thanh niênBáo Thanh niên15/04/2023


Inteligența artificială (IA), precum ChatGPT, a fost o senzație globală încă de la începutul anului 2023, dar nu este întotdeauna folosită în scopuri pozitive. Recent, un expert în securitate a descoperit o modalitate de a instrui ChatGPT să genereze cod malițios în timpul testării.

Aaron Mulgrew, expert în securitate la Forcepoint, a prezentat riscurile scrierii de cod malițios folosind chatbot-ul bilingv OpenAI. Deși ChatGPT este conceput pentru a împiedica utilizatorii să solicite inteligenței artificiale să proiecteze programe malware, Aaron a descoperit o vulnerabilitate prin crearea de comenzi (prompturi) pentru ca inteligența artificială să scrie cod linie cu linie. Atunci când le-a combinat, Aaron și-a dat seama că are în mâini un instrument de execuție nedetectabil pentru furtul de date, atât de sofisticat încât rivalizează chiar și cu cel mai avansat malware disponibil în prezent.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Fiecare linie de cod generată de ChatGPT, atunci când este combinată, poate deveni un malware sofisticat.

Descoperirea lui Mulgrew servește ca un semnal de alarmă cu privire la potențialul exploatării inteligenței artificiale pentru a crea programe malware periculoase fără a fi nevoie de grupuri de hackeri și fără ca creatorii să scrie măcar o singură linie de cod.

Malware-ul lui Mulgrew este deghizat într-o aplicație desktop, dar se poate activa automat pe dispozitivele Windows. Odată intrat în sistemul de operare, malware-ul „se infiltrează” în toate fișierele, inclusiv documente Word, fișiere imagine și PDF-uri, pentru a căuta date pe care să le fure.

Odată ce obține informațiile necesare, programul le descompune și le încorporează în fișiere imagine pe computer. Pentru a evita detectarea, aceste imagini sunt încărcate într-un folder din spațiul de stocare în cloud Google Drive. Malware-ul devine incredibil de puternic deoarece Mulgrew își poate ajusta și îmbunătăți funcțiile pentru a evita detectarea prin comenzi simple introduse în ChatGPT.

Deși acesta a fost rezultatul unui test privat realizat de un expert în securitate și nu au fost executate atacuri în afara zonei de testare, experții în securitate cibernetică au recunoscut totuși pericolul activităților care utilizează ChatGPT. Mulgrew a declarat că el însuși nu avea prea multă experiență în programare, dar inteligența artificială a OpenAI nu era încă suficient de puternică sau inteligentă pentru a opri testul său.



Legătură sursă

Comentariu (0)

Lăsați un comentariu pentru a vă împărtăși sentimentele!

Pe aceeași temă

În aceeași categorie

De același autor

Patrimoniu

Figura

Afaceri

Actualități

Sistem politic

Local

Produs

Happy Vietnam
PIAȚA ȚĂRĂ

PIAȚA ȚĂRĂ

Hotelul Intercontinental Hanoi

Hotelul Intercontinental Hanoi

Distracţie

Distracţie