Dark AI działa poza normami bezpieczeństwa, często dopuszczając się oszustw, manipulacji, cyberataków lub eksploracji danych bez ścisłego nadzoru.
„Osoby naruszające prywatność wykorzystują również sztuczną inteligencję do zwiększenia swoich możliwości ataków. Najczęstszym nadużyciem sztucznej inteligencji jest obecnie pojawienie się modeli Black Hat GPT. Są to modele sztucznej inteligencji opracowane lub zaadaptowane specjalnie do celów niezgodnych z prawem, takich jak tworzenie złośliwego oprogramowania, przygotowywanie wiadomości phishingowych, tworzenie głosów i filmów deepfake…” – powiedział Siergiej Łożkin, szef Globalnego Zespołu ds. Badań i Analiz (GReAT) odpowiedzialnego za Bliski Wschód, Turcję, Afrykę oraz region Azji i Pacyfiku w firmie Kaspersky.
Black Hat GPT mogą istnieć jako w pełni prywatne lub półprywatne modele sztucznej inteligencji. Do godnych uwagi przykładów należą WormGPT, DarkBard, FraudGPT i Xanthorox… wszystkie zaprojektowane z myślą o cyberprzestępczości, oszustwach i złośliwej automatyzacji.
Pan Lozhkin ujawnił, że eksperci firmy Kaspersky odnotowują obecnie jeszcze bardziej niepokojący trend: grupy cyberprzestępców wspierane przez państwa lub rządy zaczynają wykorzystywać duże modele językowe (LLM) w swoich kampaniach ataków.
„OpenAI ogłosiło niedawno, że udaremniło ponad 20 tajnych kampanii wpływu i cyberataków, które wykorzystywały jego narzędzia sztucznej inteligencji. Będziemy świadkami coraz bardziej wyrafinowanych ataków wykorzystujących sztuczną inteligencję, stanowiących zagrożenie zarówno dla ekosystemów publicznych, jak i prywatnych. To niepokojący trend, na który wszystkie organizacje muszą się przygotować” – powiedział Lozhkin.
Według raportu OpenAI, cyberprzestępcy zaczęli wykorzystywać możliwości dużych modeli uczenia maszynowego (LLM), aby oszukiwać ofiary i omijać konwencjonalne warstwy zabezpieczeń. Potrafią tworzyć przekonujące fałszywe wiadomości, wysyłać je masowo do ofiar i tworzyć treści w wielu językach.
Aby wzmocnić obronę przed zagrożeniami Dark AI, eksperci z Kaspersky zalecają: korzystanie z rozwiązań bezpieczeństwa nowej generacji, takich jak Kaspersky Next, w celu wykrywania złośliwego oprogramowania generowanego przez sztuczną inteligencję i kontrolowania ryzyka w łańcuchu dostaw; stosowanie narzędzi do analizy zagrożeń w czasie rzeczywistym w celu monitorowania exploitów opartych na sztucznej inteligencji; wzmocnienie kontroli dostępu i szkolenie pracowników w celu ograniczenia Shadow AI i ryzyka wycieku danych; utworzenie Centrum Operacji Bezpieczeństwa (SOC) w celu monitorowania zagrożeń i szybkiego reagowania na incydenty.
Źródło: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Komentarz (0)