Październikowy raport OpenAI wykazał, że cyberprzestępcy na całym świecie przede wszystkim integrują sztuczną inteligencję (AI) z istniejącymi metodami ataków w celu zwiększenia wydajności, zamiast opracowywać zupełnie nowe narzędzia lub metody ataku.
Według OpenAI znaczna część wykrytej aktywności wiązała się z wykorzystaniem sztucznej inteligencji do wspomagania znanych zadań, takich jak tworzenie złośliwego oprogramowania, budowanie infrastruktury kontroli, tworzenie bardziej zaawansowanych wiadomości e-mail phishingowych i gromadzenie informacji o celach.
„Zablokowane zespoły w większości wdrażały sztuczną inteligencję do istniejących procesów, zamiast tworzyć nowe procesy w oparciu o sztuczną inteligencję” – czytamy w raporcie.
W raporcie stwierdzono również, że wiele grup użytkowników wykorzystało duże modele językowe (LLM) do eksploracji wiedzy z różnych dziedzin technicznych, od tworzenia aplikacji po konfigurację systemów sieciowych, często w sposób, który specjalizował każde konto w określonym zadaniu.
Zidentyfikowano kilka innych sieci użytkowników wykorzystujących platformy AI do generowania treści online, w tym artykułów, obrazów i filmów , w celu obsługi kampanii medialnych lub promowania określonych punktów widzenia. Jednak większość tych kont jest nieskuteczna i charakteryzuje się bardzo niskim poziomem zaangażowania.
Ponadto OpenAI odnotowało również zjawisko wykorzystywania ChatGPT przez centra oszustw i cyberprzestępców do wspierania działań związanych z oszustwami internetowymi w Mjanmie i Kambodży. Niektóre przypadki pokazują, że sztuczna inteligencja jest wykorzystywana nie tylko do edycji treści, ale także do zarządzania harmonogramami pracy, zasobami ludzkimi i finansami.
OpenAI zauważa jednak, że sztuczna inteligencja jest również aktywnie wykorzystywana do zapobiegania oszustwom. Szacuje się, że ChatGPT jest wykorzystywany trzy razy częściej do identyfikowania i unikania oszustw niż do ich popełniania.
Większość złośliwych żądań jest odrzucana przez system, ale w raporcie zauważono, że nadal istnieje „szara strefa”, w której żądania techniczne lub oparte na badaniach mogą być wykorzystywane do nieprzewidzianych celów.
OpenAI twierdzi jednak, że stworzony kod lub treść nie są złośliwe dopóki nie zostaną wykorzystane poza platformą./.
(TTXVN/Wietnam+)
Source: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
Komentarz (0)