Stosowanie sztucznej inteligencji (AI) w pracy stało się nieuniknionym trendem, który pomaga zwiększyć wydajność i zaoszczędzić czas.
Za tą wygodą kryją się jednak potencjalne zagrożenia dla bezpieczeństwa danych, zwłaszcza zjawisko „Shadow AI” – gdy pracownicy korzystają z narzędzi AI nieostrożnie i bez kontroli, przypadkowo udostępniając poufne dane firmy na publicznych platformach.
Zależność i początkowe obawy
Thanh Huyen (21 lat), pracownica działu content marketingu w firmie produkującej kosmetyki i żywność funkcjonalną, przyznała, że w swojej pracy w 90% polega na sztucznej inteligencji – od planowania i tworzenia treści po projektowanie obrazów i filmów .
Jednak gdy przypadkowo natknęła się na artykuł podobny do pomysłu, o który zapytała ChatGPT, Huyen zaczęła się martwić o zdolność sztucznej inteligencji do zapamiętywania i udostępniania wprowadzanych danych.

Stosowanie sztucznej inteligencji w pracy stało się obecnie niemal standardem w wielu branżach (zdjęcie: Bao Ngoc).
Choć historia Huyena może być zbiegiem okoliczności, niezaprzeczalnym faktem jest, że dostarczenie informacji sztucznej inteligencji oznacza umożliwienie tym narzędziom zbierania i przechowywania danych w celu trenowania modelu.
Problem staje się poważny, jeśli platforma AI zostanie zhakowana lub będzie słabo zabezpieczona, co może prowadzić do wycieku informacji i negatywnych konsekwencji.
„Sztuczna inteligencja cienia” – potencjalne zagrożenie
HM (20 lat), specjalista ds. obsługi klienta, regularnie przekazuje listę informacji o klientach (imię i nazwisko, data urodzenia, numer telefonu, historia zakupów) do analizy przez sztuczną inteligencję, co pozwala zaoszczędzić czas i poprawić wydajność.
M. uważa, że nie stanowi to potencjalnego ryzyka, ponieważ firma jest mała i dane nie zostaną ujawnione. Jednak przypadek M. jest typowy dla „Shadow AI” – wykorzystywania sztucznej inteligencji przez pracowników bez zgody lub nadzoru działu IT lub cyberbezpieczeństwa.

Zjawisko „Shadow AI” odnosi się do wykorzystywania sztucznej inteligencji przez pracowników w przedsiębiorstwach bez jakiejkolwiek kontroli lub zarządzania (Ilustracja: CV).
Raport Cisco wykazał, że 62% organizacji w Wietnamie nie jest pewnych, czy pracownicy potrafią wykrywać nieuregulowane wykorzystanie sztucznej inteligencji (AI). Badanie przeprowadzone w Wielkiej Brytanii wykazało również, że 75% menedżerów ds. cyberbezpieczeństwa obawia się zagrożeń wewnętrznych, takich jak Shadow AI.
Pokazuje to, że sztuczna inteligencja Shadow AI staje się powszechnym zagrożeniem, szczególnie w sytuacji, gdy wiele firm nie ma jasnej polityki dotyczącej wykorzystania sztucznej inteligencji, a pracownicy nie są świadomi kwestii bezpieczeństwa danych.
Akceptuj kompromisy, aby nie zostać w tyle
Mimo świadomości ryzyka, Thanh Huyen nadal stawia na sztuczną inteligencję. Uważa, że bezpośrednie korzyści płynące z AI są zbyt duże, co pomaga jej tworzyć dziesiątki artykułów i pomysłów każdego dnia.
Wygoda, szybkość i możliwość zwiększenia wydajności sprawiły, że Huyen była skłonna udostępniać sztucznej inteligencji wrażliwe, poufne informacje, nawet dane osobowe swoich przełożonych.

Mimo potencjalnych zagrożeń związanych z korzystaniem ze sztucznej inteligencji bez kontroli, wielu pracowników nadal godzi się na kompromis w kwestii natychmiastowych korzyści (Ilustracja: CV).
Podobnie Trung Hieu (20 lat), pracownik działu marketingu treści, również regularnie udostępnia wewnętrzne dokumenty i informacje biznesowe chatbotowi opartemu na sztucznej inteligencji.
Hieu zauważył znaczny wzrost produktywności, co dało mu przewagę konkurencyjną, i uważa, że nie ma to większego wpływu na działalność firmy.
Przypadki te pokazują, że Shadow AI rozprzestrzenia się z powodu braku jasnej polityki firmy i niewystarczającej świadomości pracowników na temat ryzyka związanego z bezpieczeństwem, jakością i zależnościami.
Seria zagrożeń wynikających z nadmiernego zaufania do sztucznej inteligencji
Pan Nguyen Viet Hung, dyrektor generalny firmy zajmującej się tworzeniem oprogramowania do zastosowań AI, wyjaśnia, że popularność Shadow AI wynika z trzech czynników: sztucznej inteligencji (AI) pozwalającej pracować szybciej i wydajniej; nawyku szybkiego polegania na formularzach AI; oraz braku ostrzeżeń i szkoleń dotyczących ryzyka w firmach.

Pan Nguyen Viet Hung, dyrektor generalny firmy zajmującej się tworzeniem oprogramowania do zastosowań w sztucznej inteligencji (zdjęcie: Cong Khanh).
Eksperci ostrzegają, że Shadow AI może prowadzić do wycieków danych (klientów, wewnętrznych), gdy zostanie wdrożony w bezpłatnych narzędziach AI.
Ponadto jakość treści generowanych przez sztuczną inteligencję nie jest weryfikowana, co może łatwo prowadzić do stronniczości i wpływać na decyzje biznesowe.
Co poważniejsze, niekontrolowane wykorzystanie sztucznej inteligencji może prowadzić do powstawania luk w zabezpieczeniach, utrudniając systemom informatycznym monitorowanie sytuacji i szybką reakcję, a także utrudniając ustalenie odpowiedzialności w przypadku wystąpienia incydentów.
Ciemne obszary są trudne do kontrolowania.
Monitorowanie i zarządzanie pracownikami za pomocą sztucznej inteligencji to długi i skoordynowany proces. Eksperci twierdzą, że dostęp pracowników do danych wewnętrznych stanowi poważną przeszkodę w zapobieganiu przekazywaniu przez nich prywatnych danych za pośrednictwem osobistych narzędzi sztucznej inteligencji.
Co więcej, narzędzia AI są teraz łatwo dostępne, co utrudnia działom IT ich wykrywanie i zarządzanie.

Łatwy dostęp do narzędzi AI to jedna z barier utrudniających kontrolowanie informacji, jakie pracownicy umieszczają na platformach AI (Ilustracja: CV).
Aby sobie z tym poradzić, ekspert Nguyen Viet Hung zasugerował, że firmy muszą zwiększyć liczbę szkoleń pracowników na temat świadomości ryzyka związanego z korzystaniem ze sztucznej inteligencji i lepiej zrozumieć zjawisko „Shadow AI”.
Jednocześnie należy niezwłocznie wydawać regulacje prawne i wewnętrzne procedury. Kolejnym ważnym rozwiązaniem jest wzmocnienie zabezpieczeń w przedsiębiorstwie, w tym monitoring zachowań, kontrola dostępu do danych i staranne autoryzowanie każdego pracownika.
Obecnie wiele firm nadal nie ma jasno określonego procesu wdrażania sztucznej inteligencji (AI), a jedynie zachęca do jej stosowania w celu zwiększenia produktywności. Aby poradzić sobie z ukrytą sztuczną inteligencją (Shadow AI), wiele dużych przedsiębiorstw zaczęło wdrażać wewnętrzne platformy AI lub wymagać od pracowników korzystania z zatwierdzonych narzędzi z jasno określonymi zasadami bezpieczeństwa informacji.
Source: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
Komentarz (0)