Sztuczna inteligencja (AI), taka jak ChatGPT, cieszy się światową popularnością od początku 2023 roku, ale nie zawsze jest wykorzystywana w pozytywnym celu. Niedawno ekspert ds. bezpieczeństwa znalazł sposób, aby zmusić ChatGPT do tworzenia złośliwego kodu podczas testów.
Aaron Mulgrew, ekspert ds. bezpieczeństwa w firmie Forcepoint, podzielił się ryzykiem związanym z tworzeniem złośliwego oprogramowania z wykorzystaniem chatbota językowego OpenAI. Chociaż ChatGPT został zaprojektowany, aby uniemożliwić użytkownikom proszenie sztucznej inteligencji o projektowanie złośliwego oprogramowania, Aaron znalazł lukę, tworząc monity dla sztucznej inteligencji, która pisała kod programistyczny linijka po linijce. Po połączeniu tych wszystkich elementów, Aaron zdał sobie sprawę, że ma w rękach niewykrywalne narzędzie do kradzieży danych, tak zaawansowane, że dorównuje najnowocześniejszemu złośliwemu oprogramowaniu.
Każda pojedyncza linia poleceń wygenerowana przez ChatGPT może w połączeniu stać się zaawansowanym złośliwym oprogramowaniem.
Odkrycie Mulgrewa jest sygnałem ostrzegawczym, że sztuczna inteligencja może być wykorzystana do tworzenia niebezpiecznego złośliwego oprogramowania bez konieczności angażowania grupy hakerów lub nawet pisania przez twórcę narzędzia choćby jednej linijki kodu.
Oprogramowanie Mulgrewa podszywa się pod wygaszacz ekranu, ale potrafi automatycznie aktywować się na urządzeniach z systemem Windows. Po przedostaniu się do systemu operacyjnego złośliwe oprogramowanie „infiltruje” każdy plik, w tym edytory tekstu Word, pliki graficzne i pliki PDF, szukając danych do kradzieży.
Po uzyskaniu potrzebnych informacji program analizuje je i dołącza do plików graficznych na komputerze. Aby uniknąć wykrycia, obrazy są przesyłane do folderu na Dysku Google. Szkodliwe oprogramowanie jest tak potężne, ponieważ Mulgrew potrafi modyfikować i ulepszać swoje funkcje, aby uniknąć wykrycia, za pomocą prostych poleceń wprowadzanych do ChatGPT.
Chociaż był to prywatny test przeprowadzony przez ekspertów ds. bezpieczeństwa i nie przeprowadzono żadnych ataków poza zakresem testów, społeczność cyberbezpieczeństwa nadal dostrzega zagrożenie związane z działaniami z wykorzystaniem ChatGPT. Mulgrew twierdzi, że nie ma dużego doświadczenia w programowaniu, ale sztuczna inteligencja OpenAI wciąż nie jest wystarczająco silna i inteligentna, aby zapobiec jego testowi.
Link źródłowy
Komentarz (0)