Tani i dostępny złośliwy AI

Na forach dark webu narzędzia takie jak WormGPT, FraudGPT i EvilCoder AI nie są już tajemnicą, lecz są otwarcie reklamowane jako standardowa usługa abonamentowa. Niepokojące jest to, że za zaledwie kilkaset dolarów rocznie każdy może posiadać niebezpiecznego „asystenta AI” do przeprowadzania wyrafinowanych cyberataków.

Zdjęcie 1 (10).JPG

Eksperci ds. bezpieczeństwa krajowego i międzynarodowego odnotowali ostatnio gwałtowny wzrost liczby ataków pochodzących z tych złośliwych narzędzi sztucznej inteligencji. Zazwyczaj użytkownicy FraudGPT muszą zapłacić jedynie około 200 USD miesięcznie, a narzędzie to natychmiast umożliwia im tworzenie serii spersonalizowanych wiadomości phishingowych z prawdziwą treścią lub pisanie kompletnego kodu wykorzystującego luki w zabezpieczeniach.

WormGPT, tańsza wersja złośliwego oprogramowania opartego na sztucznej inteligencji, kosztuje zaledwie 60 EUR miesięcznie i oferuje możliwość tworzenia polimorficznego złośliwego oprogramowania, które może nieustannie mutować, aby ominąć większość tradycyjnych systemów antywirusowych. To nowe wyzwanie dla korporacyjnych zespołów ds. bezpieczeństwa, ponieważ atakujący nie muszą już posiadać zaawansowanych umiejętności programistycznych – wystarczy, że wiedzą, jak korzystać z dostępnych narzędzi.

Złośliwe modele sztucznej inteligencji, takie jak WormGPT i FraudGPT, opierają się na podobnej architekturze modelu językowego co ChatGPT, ale zostały udoskonalone w celu usunięcia barier etycznych. Narzędzia te mogą:

Automatycznie generuj wiadomości e-mail typu phishing z idealnie spersonalizowaną treścią, bazując na informacjach zebranych z mediów społecznościowych lub publicznych źródeł danych.

Twórz nowe typy złośliwego oprogramowania całkowicie automatycznie, stale zmieniając ich sygnatury, aby uniknąć wykrycia przez tradycyjne rozwiązania antywirusowe oparte na algorytmach skrótów.

Automatycznie opracuj kod exploita, który wykorzystuje znane luki w zabezpieczeniach (CVE), ułatwiając atakującym penetrację podatnych systemów.

Na forach dark webu można również znaleźć pomoc techniczną i szczegółowe instrukcje użytkownika, dzięki czemu każdy, nawet laik, może przeprowadzić atak.

W pierwszym kwartale 2025 roku wiele międzynarodowych firm odnotowało poważne ataki pochodzące z tych narzędzi sztucznej inteligencji. Niektóre firmy w USA i Europie zgłosiły bezprecedensowe kampanie phishingowe i malware z wykorzystaniem sztucznej inteligencji, które sprawiły, że tradycyjne systemy bezpieczeństwa stały się niemal całkowicie bezużyteczne.

Proaktywna obrona AI w locie

Zdając sobie sprawę z tej rzeczywistości, eksperci ds. bezpieczeństwa firmy CMC Telecom szybko wdrożyli specjalne rozwiązania obronne, aby przeciwdziałać tanim i łatwo dostępnym narzędziom do ataków na sztuczną inteligencję w następujących obszarach:

Technologia oszustwa: aktywnie tworzy symulowane środowisko w systemie, dzięki czemu hakerzy wykorzystujący sztuczną inteligencję tracą czas na fałszywe cele, pomagając firmom wcześnie identyfikować i analizować techniki ataków.

Zintegrowane ze sztuczną inteligencją środowisko testowe: wszystkie podejrzane wiadomości e-mail i pliki są dokładnie sprawdzane w wirtualnym środowisku odizolowanym w celu wykrycia oznak polimorficznego złośliwego oprogramowania.

Zdjęcie 2 + post na Facebooku.jpg

SOAR — automatyzacja reagowania na incydenty: po wykryciu oznak ataku złośliwego oprogramowania opartego na sztucznej inteligencji system automatycznie podejmuje szybkie kroki reakcji, minimalizując szkody i skracając czas reakcji.

Zaawansowana analiza zagrożeń: codziennie analizuj nowe dane dotyczące ataków, stale aktualizuj wskaźniki zagrożenia (IOC), pomagając firmom być o krok przed atakującymi.

Rozwiązania te obsługuje zespół ekspertów ds. bezpieczeństwa firmy CMC Telecom. Zespół ten jest stale wyróżniany w Galerii Sław Apple i posiada wiele międzynarodowych certyfikatów, takich jak OSCP, CREST i CHFI.

Według pana Luu The Hiena – zastępcy dyrektora Centrum Bezpieczeństwa Informacji CMC Telecom – narzędzia takie jak WormGPT i FraudGPT nie są już tylko kwestią przyszłości, lecz stały się zagrożeniem egzystencjalnym. Liderzy biznesu muszą mieć pełną świadomość: nie mogą dłużej czekać ani opóźniać natychmiastowego dostępu do odpowiednich technologii obronnych.

Zespół ekspertów CMC Telecom uważa, że ​​tylko proaktywne zastosowanie sztucznej inteligencji w zabezpieczeniach pozwoli nam walczyć z cyberatakami wykorzystującymi sztuczną inteligencję w wyrafinowany i tani sposób, zwłaszcza że zdarzają się one szybciej niż kiedykolwiek wcześniej.

Thuy Nga

Źródło: https://vietnamnet.vn/chu-dong-phong-ve-truoc-cac-cong-cu-tan-cong-ai-2415360.html