Vietnam.vn - Nền tảng quảng bá Việt Nam

Ekspert ds. bezpieczeństwa „oszukuje” ChatGPT, zmuszając go do pisania złośliwego kodu

Báo Thanh niênBáo Thanh niên15/04/2023

[reklama_1]

Sztuczna inteligencja (AI), taka jak ChatGPT, cieszy się światową popularnością od początku 2023 roku, ale nie zawsze jest wykorzystywana w pozytywnym celu. Niedawno ekspert ds. bezpieczeństwa znalazł sposób, aby zmusić ChatGPT do tworzenia złośliwego kodu podczas testów.

Aaron Mulgrew, ekspert ds. bezpieczeństwa w firmie Forcepoint, podzielił się ryzykiem związanym z tworzeniem złośliwego oprogramowania z wykorzystaniem chatbota językowego OpenAI. Chociaż ChatGPT został zaprojektowany, aby uniemożliwić użytkownikom proszenie sztucznej inteligencji o projektowanie złośliwego oprogramowania, Aaron znalazł lukę, tworząc monity dla sztucznej inteligencji, która pisała kod programistyczny linijka po linijce. Po połączeniu tych wszystkich elementów, Aaron zdał sobie sprawę, że ma w rękach niewykrywalne narzędzie do kradzieży danych, tak zaawansowane, że dorównuje najnowocześniejszemu złośliwemu oprogramowaniu.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Każda pojedyncza linia poleceń wygenerowana przez ChatGPT może w połączeniu stać się zaawansowanym złośliwym oprogramowaniem.

Odkrycie Mulgrewa jest sygnałem ostrzegawczym, że sztuczna inteligencja może być wykorzystana do tworzenia niebezpiecznego złośliwego oprogramowania bez konieczności angażowania grupy hakerów lub nawet pisania przez twórcę narzędzia choćby jednej linijki kodu.

Oprogramowanie Mulgrewa podszywa się pod wygaszacz ekranu, ale potrafi automatycznie aktywować się na urządzeniach z systemem Windows. Po przedostaniu się do systemu operacyjnego złośliwe oprogramowanie „infiltruje” każdy plik, w tym edytory tekstu Word, pliki graficzne i pliki PDF, szukając danych do kradzieży.

Po uzyskaniu potrzebnych informacji program analizuje je i dołącza do plików graficznych na komputerze. Aby uniknąć wykrycia, obrazy są przesyłane do folderu na Dysku Google. Szkodliwe oprogramowanie jest tak potężne, ponieważ Mulgrew potrafi modyfikować i ulepszać swoje funkcje, aby uniknąć wykrycia, za pomocą prostych poleceń wprowadzanych do ChatGPT.

Chociaż był to prywatny test przeprowadzony przez ekspertów ds. bezpieczeństwa i nie przeprowadzono żadnych ataków poza zakresem testów, społeczność cyberbezpieczeństwa nadal dostrzega zagrożenie związane z działaniami z wykorzystaniem ChatGPT. Mulgrew twierdzi, że nie ma dużego doświadczenia w programowaniu, ale sztuczna inteligencja OpenAI wciąż nie jest wystarczająco silna i inteligentna, aby zapobiec jego testowi.



Link źródłowy

Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Na niebie Son La znajduje się wzgórze fioletowych kwiatów Sim
Latarnia – upamiętniający prezent z okazji Święta Środka Jesieni
Tò he – od prezentu z dzieciństwa do dzieła sztuki wartego milion dolarów
Wysiłki mające na celu zachowanie tradycyjnego rzemiosła wyrobu zabawek na środek jesieni we wsi Ong Hao

Od tego samego autora

Dziedzictwo

Postać

Biznes

No videos available

Aktualności

System polityczny

Lokalny

Produkt