Dark AI działa poza standardami bezpieczeństwa, często umożliwiając oszustwa, manipulacje, cyberataki lub wykorzystywanie danych bez ścisłego nadzoru.
„Szkodliwi cyberprzestępcy wykorzystują również sztuczną inteligencję do zwiększenia swoich możliwości ataków. Najczęstszym nadużyciem sztucznej inteligencji jest obecnie pojawienie się modeli Black Hat GPT. Są to modele sztucznej inteligencji specjalnie opracowane lub zmodyfikowane w celu realizacji nielegalnych celów, takich jak tworzenie złośliwego oprogramowania, przygotowywanie wiadomości phishingowych, generowanie nagrań głosowych i filmów deepfake…” – powiedział Siergiej Łożkin, szef Globalnego Zespołu ds. Badań i Analiz (GReAT) na Bliski Wschód, Turcję, Afrykę i Azję i Pacyfik w firmie Kaspersky.
Black Hat GPT mogą istnieć jako całkowicie prywatne lub półprywatne modele sztucznej inteligencji. Do godnych uwagi przykładów należą WormGPT, DarkBard, FraudGPT i Xanthorox – wszystkie zaprojektowane do obsługi cyberprzestępczości, oszustw i złośliwych działań automatyzacyjnych.
Lozhkin ujawnił, że eksperci firmy Kaspersky obserwują teraz jeszcze bardziej niepokojący trend: grupy cyberprzestępcze wspierane przez państwo lub rząd zaczynają wykorzystywać duże modele językowe (LLM) w swoich kampaniach ataków.
„OpenAI ogłosiło niedawno, że udaremniło ponad 20 tajnych kampanii wpływu i cyberataków, które wykorzystywały jego narzędzia sztucznej inteligencji. Będziemy musieli stawić czoła coraz bardziej wyrafinowanym atakującym, którzy wykorzystują sztuczną inteligencję jako broń, stając się zagrożeniem zarówno w ekosystemach publicznych, jak i prywatnych. To niepokojący trend, na który wszystkie organizacje muszą się przygotować” – powiedział Lozhkin.
Według raportu OpenAI, cyberprzestępcy zaczęli wykorzystywać możliwości modeli uczenia maszynowego na dużą skalę (LLM), aby oszukiwać ofiary i omijać konwencjonalne warstwy zabezpieczeń. Potrafią tworzyć przekonujące fałszywe wiadomości, masowo wysyłać wiadomości do ofiar i tworzyć treści w wielu językach.
Aby zwiększyć ochronę przed zagrożeniami związanymi z ciemną sztuczną inteligencją (Dark AI), eksperci z firmy Kaspersky zalecają: wykorzystanie rozwiązań bezpieczeństwa nowej generacji, takich jak Kaspersky Next, w celu wykrywania złośliwego oprogramowania generowanego przez sztuczną inteligencję i kontrolowania zagrożeń dla łańcucha dostaw; stosowanie narzędzi do analizy zagrożeń w czasie rzeczywistym w celu monitorowania wykorzystywania luk w zabezpieczeniach przez sztuczną inteligencję; wzmocnienie kontroli dostępu i szkolenie personelu w celu ograniczenia ryzyka związanego z ciemną sztuczną inteligencją i wyciekiem danych; oraz utworzenie Centrum Operacji Bezpieczeństwa (SOC) w celu monitorowania zagrożeń i szybkiego reagowania na incydenty.
Źródło: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






Komentarz (0)