Sztuczna inteligencja (AI), taka jak ChatGPT, cieszy się światową popularnością od początku 2023 roku, ale nie zawsze jest wykorzystywana w pozytywnym celu. Niedawno ekspert ds. bezpieczeństwa odkrył sposób, w jaki ChatGPT może generować złośliwy kod podczas testów.
Aaron Mulgrew, ekspert ds. bezpieczeństwa w firmie Forcepoint, opowiedział o ryzyku związanym z pisaniem złośliwego kodu za pomocą dwujęzycznego chatbota OpenAI. Chociaż ChatGPT został zaprojektowany tak, aby uniemożliwić użytkownikom żądanie od sztucznej inteligencji stworzenia złośliwego oprogramowania, Aaron odkrył lukę w zabezpieczeniach, tworząc polecenia (monity) umożliwiające sztucznej inteligencji pisanie kodu linijka po linijce. Po połączeniu tych dwóch elementów, Aaron zdał sobie sprawę, że ma w rękach niewykrywalne narzędzie do kradzieży danych, tak zaawansowane, że dorównuje nawet najbardziej zaawansowanemu obecnie dostępnemu złośliwemu oprogramowaniu.
Każda pojedyncza linia kodu wygenerowana przez ChatGPT może w połączeniu stać się zaawansowanym złośliwym oprogramowaniem.
Odkrycie Mulgrewa stanowi sygnał ostrzegawczy, że sztuczna inteligencja może być wykorzystywana do tworzenia niebezpiecznego złośliwego oprogramowania bez konieczności angażowania grup hakerów i bez konieczności napisania przez twórców choćby jednej linijki kodu.
Szkodliwe oprogramowanie Mulgrew podszywa się pod aplikację desktopową, ale może automatycznie aktywować się na urządzeniach z systemem Windows. Po przedostaniu się do systemu operacyjnego, złośliwe oprogramowanie „infiltruje” wszystkie pliki, w tym dokumenty Word, pliki graficzne i pliki PDF, w celu wyszukiwania danych do kradzieży.
Po uzyskaniu potrzebnych informacji program rozbija je na części i osadza w plikach graficznych na komputerze. Aby uniknąć wykrycia, obrazy te są przesyłane do folderu w chmurze Google Drive. Szkodliwe oprogramowanie staje się niezwykle potężne, ponieważ Mulgrew może dostrajać i ulepszać swoje funkcje, aby uniknąć wykrycia za pomocą prostych poleceń wprowadzanych do ChatGPT.
Chociaż był to wynik prywatnego testu przeprowadzonego przez eksperta ds. bezpieczeństwa i żadne ataki nie zostały przeprowadzone poza obszarem testowym, eksperci ds. cyberbezpieczeństwa nadal dostrzegali zagrożenie związane z działaniami z wykorzystaniem ChatGPT. Mulgrew stwierdził, że sam nie miał dużego doświadczenia w programowaniu, ale sztuczna inteligencja OpenAI wciąż nie była wystarczająco potężna ani inteligentna, aby zatrzymać jego test.
Link źródłowy






Komentarz (0)