Vietnam.vn - Nền tảng quảng bá Việt Nam

Ekspert ds. bezpieczeństwa „oszukuje” ChatGPT, zmuszając go do pisania złośliwego oprogramowania.

Báo Thanh niênBáo Thanh niên15/04/2023

[reklama_1]

Sztuczna inteligencja (AI), taka jak ChatGPT, cieszy się światową popularnością od początku 2023 roku, ale nie zawsze jest wykorzystywana w pozytywnym celu. Niedawno ekspert ds. bezpieczeństwa odkrył sposób, w jaki ChatGPT może generować złośliwy kod podczas testów.

Aaron Mulgrew, ekspert ds. bezpieczeństwa w firmie Forcepoint, opowiedział o ryzyku związanym z pisaniem złośliwego kodu za pomocą dwujęzycznego chatbota OpenAI. Chociaż ChatGPT został zaprojektowany tak, aby uniemożliwić użytkownikom żądanie od sztucznej inteligencji stworzenia złośliwego oprogramowania, Aaron odkrył lukę w zabezpieczeniach, tworząc polecenia (monity) umożliwiające sztucznej inteligencji pisanie kodu linijka po linijce. Po połączeniu tych dwóch elementów, Aaron zdał sobie sprawę, że ma w rękach niewykrywalne narzędzie do kradzieży danych, tak zaawansowane, że dorównuje nawet najbardziej zaawansowanemu obecnie dostępnemu złośliwemu oprogramowaniu.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Każda pojedyncza linia kodu wygenerowana przez ChatGPT może w połączeniu stać się zaawansowanym złośliwym oprogramowaniem.

Odkrycie Mulgrewa stanowi sygnał ostrzegawczy, że sztuczna inteligencja może być wykorzystywana do tworzenia niebezpiecznego złośliwego oprogramowania bez konieczności angażowania grup hakerów i bez konieczności napisania przez twórców choćby jednej linijki kodu.

Szkodliwe oprogramowanie Mulgrew podszywa się pod aplikację desktopową, ale może automatycznie aktywować się na urządzeniach z systemem Windows. Po przedostaniu się do systemu operacyjnego, złośliwe oprogramowanie „infiltruje” wszystkie pliki, w tym dokumenty Word, pliki graficzne i pliki PDF, w celu wyszukiwania danych do kradzieży.

Po uzyskaniu potrzebnych informacji program rozbija je na części i osadza w plikach graficznych na komputerze. Aby uniknąć wykrycia, obrazy te są przesyłane do folderu w chmurze Google Drive. Szkodliwe oprogramowanie staje się niezwykle potężne, ponieważ Mulgrew może dostrajać i ulepszać swoje funkcje, aby uniknąć wykrycia za pomocą prostych poleceń wprowadzanych do ChatGPT.

Chociaż był to wynik prywatnego testu przeprowadzonego przez eksperta ds. bezpieczeństwa i żadne ataki nie zostały przeprowadzone poza obszarem testowym, eksperci ds. cyberbezpieczeństwa nadal dostrzegali zagrożenie związane z działaniami z wykorzystaniem ChatGPT. Mulgrew stwierdził, że sam nie miał dużego doświadczenia w programowaniu, ale sztuczna inteligencja OpenAI wciąż nie była wystarczająco potężna ani inteligentna, aby zatrzymać jego test.



Link źródłowy

Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tym samym temacie

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Piękne krajobrazy Wietnamu

Piękne krajobrazy Wietnamu

RYNEK WIEJSKI

RYNEK WIEJSKI

Człowiek

Człowiek