Sztuczna inteligencja staje się potężnym pomocnikiem cyberprzestępców. Zdjęcie: Cato Networks . |
Nie tylko zwykli użytkownicy, ale i cyberprzestępcy coraz częściej wykorzystują sztuczną inteligencję do przeprowadzania bardziej wyrafinowanych ataków niż kiedykolwiek wcześniej. W niecałe 2 lata narzędzia AI wspierające hakerów gwałtownie rozwinęły się pod względem funkcjonalności i wydajności.
Adrian Hia, dyrektor Kaspersky Asia and Japan (APJ), powiedział, że Dark AI odgrywa ogromną rolę w szybkim rozwoju złośliwego oprogramowania. Dane firmy Kaspersky pokazują, że każdego dnia powstaje prawie pół miliona złośliwych programów.
„Dark AI jest jak dark web – ciemna strona sieci, z której korzystamy na co dzień” – powiedział pan Hia.
Siergiej Łożkin, szef globalnego zespołu ds. badań i analiz (GReAT) w firmie Kaspersky na region Azji i Pacyfiku (APAC) oraz Bliskiego Wschodu, Afryki i Turcji (META), stwierdził, że Dark AI zupełnie różni się od konwencjonalnych chatbotów opartych na sztucznej inteligencji, takich jak ChatGPT czy Gemini.
Sztuczna inteligencja, z którą znają się użytkownicy, została stworzona po to, by pomagać użytkownikom i wykonywać legalne zadania. Nawet jeśli użytkownicy otrzymają polecenie stworzenia złośliwego oprogramowania lub podjęcia nielegalnych działań, będą mieli trudności z osiągnięciem swoich celów.
Tymczasem Dark AI „to w rzeczywistości LLM lub chatboty stworzone wyłącznie do wykonywania złośliwych działań w cyberprzestrzeni” – powiedział Lozhkin. Te sztuczne inteligencje są szkolone do tworzenia złośliwego oprogramowania, treści phishingowych, a nawet kompletnych struktur, które cyberprzestępcy mogą wykorzystać do oszustw.
Ukryty system sztucznej inteligencji przeznaczony wyłącznie dla renomowanych hakerów
Systemy te, które pan Lozhkin nazywa Black Hat GPT lub „black hat GPT”, istnieją od 2023 roku. Przedstawiciele Kaspersky'ego twierdzą, że w tamtym czasie sztuczna inteligencja była bardzo podstawowa, tworzyła bardzo zły kod i można ją było natychmiast wykryć.
Jednak ostatnio systemy GPT typu black hat stały się bardziej kompletne i mogą oferować wiele funkcji, od tworzenia złośliwego oprogramowania i fałszywych treści po podszywanie się pod głosy i filmy . Niektóre z nazw to WormGPT, DarkBard lub FraudGPT.
![]() |
Siergiej Łożkin, badacz z Kaspersky, ostrzega, że jakość Dark AI jest coraz lepsza. Zdjęcie: Minh Khoi. |
Jednym z najbardziej niepokojących odkryć firmy Kaspersky było istnienie prywatnych systemów Dark AI, dostępnych tylko dla renomowanych cyberprzestępców. Aby uzyskać dostęp do tych prywatnych systemów AI, hakerzy muszą zbudować sobie reputację na podziemnych forach.
„Dostęp do tego typu systemów jest możliwy tylko wtedy, gdy jest się zaufanym. Aby uzyskać dostęp do tych asystentów, trzeba zbudować reputację na podziemnych forach” – powiedział ekspert firmy Kaspersky.
Lozhkin powiedział, że Kaspersky ma jednostkę „Digital Footprint Intelligence”, która latami infiltruje podziemne fora oraz monitoruje i śledzi aktywność. Po uzyskaniu dostępu do nowych systemów firma nadal poświęca dużo czasu na zrozumienie, jak wykorzystywana jest ciemna sztuczna inteligencja, jakie są jej funkcje i skuteczność.
Ciemna sztuczna inteligencja staje się silniejsza
Dark AI staje się skutecznym narzędziem dla doświadczonych hakerów. Dla osób z podstawową wiedzą programistyczną, użycie generatora ransomware może stworzyć jedynie oprogramowanie łatwo rozpoznawalne przez program antywirusowy. Jednak dla doświadczonych hakerów Dark AI może zwiększyć produktywność kodowania, tworząc nowe złośliwe oprogramowanie.
„Jakość w dużej mierze zależy od konkretnej platformy lub Dark AI. Niektóre generują kod o bardzo niskiej jakości, ale są też narzędzia, które potrafią osiągnąć 7-8 punktów na 10” – powiedział Lozhkin portalowi Tri Thuc - Znews .
Jednym z przykładów jest możliwość tworzenia kodu polimorficznego. Wcześniej, gdy program antywirusowy wykrył fragment złośliwego kodu, hakerzy musieli poświęcić dużo czasu na jego modyfikację. Teraz Dark AI może to zrobić „niemal natychmiast”, tworząc wersję trudniejszą do wykrycia.
Co więcej, ciemne wiadomości LLM przełamują barierę językową w atakach phishingowych. Eksperci Kaspersky twierdzą, że nową generację wiadomości phishingowych trudniej rozpoznać ze względu na niemal perfekcyjny angielski, który może nawet „wyglądać dokładnie jak głos prezesa”.
![]() |
Niektóre systemy Dark AI typu „wszystko w jednym” potrafią generować kod, integrować imitację głosu i wysyłać wiadomości phishingowe. Zdjęcie: Kaspersky. |
Umiejętność tworzenia fałszywych głosów i obrazów przez wyspecjalizowany system Dark AI jest coraz doskonalsza. Pan Lozhkin powiedział nawet, że „nie wierzy już w wideorozmowy” dzięki swojemu doświadczeniu jako pracownik ochrony.
Jednak eksperci z firmy Kaspersky twierdzą również, że użytkownicy nadal mogą rozpoznać oszustwo telefoniczne na podstawie zachowania, sposobu mówienia i pewnych unikalnych cech.
„Te funkcje są trudne do podrobienia, dlatego staraj się skontaktować bezpośrednio z osobą, którą podejrzewasz o oszustwo” – powiedział badacz ds. bezpieczeństwa portalowi Tri Thuc – Znews .
„Wyścig zbrojeń AI”
Rozwój Dark AI zapoczątkował technologiczny wyścig zbrojeń między cyberprzestępcami a ekspertami od cyberbezpieczeństwa. „Osobiście wykorzystuję teraz sztuczną inteligencję do wszystkiego – badań, programowania, inżynierii wstecznej. Moja produktywność w tym roku jest 10-20 razy wyższa niż wcześniej” – przyznaje Lozhkin.
„Jeśli nie użyjesz sztucznej inteligencji do stworzenia mechanizmu obronnego, podczas gdy złoczyńcy będą używać sztucznej inteligencji do ataku, przegrasz. To początek wyścigu między dobrymi a złymi, którzy używają sztucznej inteligencji” – ostrzegł.
![]() |
Adrian Hia, dyrektor Kaspersky APJ, powiedział, że Dark AI pomaga szybciej tworzyć złośliwe oprogramowanie. Zdjęcie: Minh Khoi. |
Google poinformowało o zablokowaniu ponad 20 złośliwych działań grup sponsorowanych przez państwo, które próbowały wykorzystać ChatGPT do tworzenia złośliwego oprogramowania i planowania ataków. W 2024 roku zidentyfikowano 40 wspieranych przez rząd grup APT, wykorzystując modele sztucznej inteligencji.
Szczególnie niepokojące są w pełni rozwinięte infrastruktury, takie jak Xanthorox, która oferuje „pełny pakiet” usług za 200 dolarów miesięcznie, integrując generowanie głosu, wiadomości phishingowe i inne narzędzia ataku w ramach łatwego w obsłudze interfejsu.
Eksperci Kaspersky ostrzegają, że Dark AI jest wciąż w powijakach. Adrian Hia przewiduje, że w ciągu najbliższych kilku lat koszt jego użytkowania będzie znacznie niższy, a jego rozwój nie jest jeszcze znany.
„Ale jestem absolutnie pewien, że będziemy gotowi, ponieważ robimy to samo, ale z przeciwnej strony” – skomentował pan Łożkin.
Źródło: https://znews.vn/moi-nguy-khi-toi-pham-so-huu-ai-den-post1574400.html









Komentarz (0)