Vietnam.vn - Nền tảng quảng bá Việt Nam

Expert în securitate „păcălește” ChatGPT să scrie cod malițios

Báo Thanh niênBáo Thanh niên15/04/2023


Inteligența artificială (IA), precum ChatGPT, a fost o senzație globală încă de la începutul anului 2023, dar această IA nu este întotdeauna folosită în scopuri pozitive. Recent, un expert în securitate a găsit o modalitate de a solicita ChatGPT să creeze cod malițios în timpul testării.

Aaron Mulgrew, expert în securitate la Forcepoint, a împărtășit riscul scrierii de programe malware folosind chatbot-ul de limbaj OpenAI. Deși ChatGPT a fost conceput pentru a împiedica utilizatorii să ceară inteligenței artificiale să proiecteze programe malware, Aaron a găsit totuși o lacună prin crearea de solicitări pentru ca inteligența artificială să scrie cod de programare linie cu linie. Când au fost combinate, Aaron și-a dat seama că avea în mâini un instrument de executare a furtului de date nedetectabil, atât de sofisticat încât era comparabil cu cel mai sofisticat malware din ziua de azi.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Fiecare linie de comandă individuală generată de ChatGPT, atunci când este combinată, poate deveni un malware sofisticat.

Descoperirea lui Mulgrew este un semnal de alarmă cu privire la potențialul utilizării inteligenței artificiale pentru a crea programe malware periculoase, fără a fi nevoie de un grup de hackeri sau chiar de creatorul instrumentului care să scrie o singură linie de cod.

Software-ul lui Mulgrew este deghizat într-o aplicație de economisire a ecranului, dar este capabil să se activeze automat pe dispozitivele cu Windows. Odată ajuns în sistemul de operare, malware-ul „se infiltrează” în fiecare fișier, inclusiv editori de text Word, fișiere imagine și PDF-uri, căutând date pe care să le fure.

Odată ce are ceea ce are nevoie, programul descompune informațiile și le atașează la fișiere imagine de pe computer. Pentru a evita detectarea, imaginile sunt încărcate într-un folder din Google Drive. Malware-ul este atât de puternic deoarece Mulgrew poate modifica și îmbunătăți funcțiile sale pentru a evita detectarea prin comenzi simple introduse în ChatGPT.

Deși acesta a fost un test privat realizat de experți în securitate și nu au fost efectuate atacuri în afara domeniului de testare, comunitatea de securitate cibernetică recunoaște în continuare pericolul activităților care utilizează ChatGPT. Mulgrew susține că nu are multă experiență în programare, dar inteligența artificială a OpenAI încă nu este suficient de puternică și inteligentă pentru a preveni testul său.



Legătură sursă

Comentariu (0)

No data
No data

Pe aceeași temă

În aceeași categorie

Pierdut în vânătoarea de nori în Ta Xua
Există un deal de flori Sim mov pe cerul din Son La
Felinar - Un cadou de amintire pentru Festivalul de la Mijlocul Toamnei
Tò he – de la un cadou din copilărie la o operă de artă de un milion de dolari

De același autor

Patrimoniu

;

Figura

;

Afaceri

;

No videos available

Ştiri

;

Sistem politic

;

Local

;

Produs

;