Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Szef się rozluźnia, pracownicy spokojnie przekazują poufne dane sztucznej inteligencji

(Dan Tri) - Kiedy sztuczna inteligencja wkracza w każdy zakątek firmy, nadchodzi również czas, w którym firmy muszą zmierzyć się z „podskórnym nurtem”, który po cichu niszczy prywatność danych, zwanym „Shadow AI”.

Báo Dân tríBáo Dân trí11/08/2025

Stosowanie sztucznej inteligencji (AI) w pracy stało się nieuniknionym trendem, który pomaga zwiększyć wydajność i zaoszczędzić czas.

Za tą wygodą kryją się jednak potencjalne zagrożenia dla bezpieczeństwa danych, zwłaszcza zjawisko „Shadow AI” – gdy pracownicy korzystają z narzędzi AI nieostrożnie i bez kontroli, przypadkowo udostępniając poufne dane firmy na publicznych platformach.

Zależność i początkowe obawy

Thanh Huyen (21 lat), pracownica działu content marketingu w firmie produkującej kosmetyki i żywność funkcjonalną, przyznała, że ​​w swojej pracy w 90% polega na sztucznej inteligencji – od planowania i tworzenia treści po projektowanie obrazów i filmów .

Jednak gdy przypadkowo natknęła się na artykuł podobny do pomysłu, o który zapytała ChatGPT, Huyen zaczęła się martwić o zdolność sztucznej inteligencji do zapamiętywania i udostępniania wprowadzanych danych.

Sếp buông lỏng, nhân viên thản nhiên cấp dữ liệu mật cho AI - 1

Stosowanie sztucznej inteligencji w pracy stało się obecnie niemal standardem w wielu branżach (zdjęcie: Bao Ngoc).

Choć historia Huyena może być zbiegiem okoliczności, niezaprzeczalnym faktem jest, że dostarczenie informacji sztucznej inteligencji oznacza umożliwienie tym narzędziom zbierania i przechowywania danych w celu trenowania modelu.

Problem staje się poważny, jeśli platforma AI zostanie zhakowana lub będzie słabo zabezpieczona, co może prowadzić do wycieku informacji i negatywnych konsekwencji.

„Sztuczna inteligencja cienia” – potencjalne zagrożenie

HM (20 lat), specjalista ds. obsługi klienta, regularnie przekazuje listę informacji o klientach (imię i nazwisko, data urodzenia, numer telefonu, historia zakupów) do analizy przez sztuczną inteligencję, co pozwala zaoszczędzić czas i poprawić wydajność.

M. uważa, że ​​nie stanowi to potencjalnego ryzyka, ponieważ firma jest mała i dane nie zostaną ujawnione. Jednak przypadek M. jest typowy dla „Shadow AI” – wykorzystywania sztucznej inteligencji przez pracowników bez zgody lub nadzoru działu IT lub cyberbezpieczeństwa.

Sếp buông lỏng, nhân viên thản nhiên cấp dữ liệu mật cho AI - 2

Zjawisko „Shadow AI” odnosi się do wykorzystywania sztucznej inteligencji przez pracowników w przedsiębiorstwach bez jakiejkolwiek kontroli lub zarządzania (Ilustracja: CV).

Raport Cisco wykazał, że 62% organizacji w Wietnamie nie jest pewnych, czy pracownicy potrafią wykrywać nieuregulowane wykorzystanie sztucznej inteligencji (AI). Badanie przeprowadzone w Wielkiej Brytanii wykazało również, że 75% menedżerów ds. cyberbezpieczeństwa obawia się zagrożeń wewnętrznych, takich jak Shadow AI.

Pokazuje to, że sztuczna inteligencja Shadow AI staje się powszechnym zagrożeniem, szczególnie w sytuacji, gdy wiele firm nie ma jasnej polityki dotyczącej wykorzystania sztucznej inteligencji, a pracownicy nie są świadomi kwestii bezpieczeństwa danych.

Akceptuj kompromisy, aby nie zostać w tyle

Mimo świadomości ryzyka, Thanh Huyen nadal stawia na sztuczną inteligencję. Uważa, że ​​bezpośrednie korzyści płynące z AI są zbyt duże, co pomaga jej tworzyć dziesiątki artykułów i pomysłów każdego dnia.

Wygoda, szybkość i możliwość zwiększenia wydajności sprawiły, że Huyen była skłonna udostępniać sztucznej inteligencji wrażliwe, poufne informacje, nawet dane osobowe swoich przełożonych.

Sếp buông lỏng, nhân viên thản nhiên cấp dữ liệu mật cho AI - 3

Mimo potencjalnych zagrożeń związanych z korzystaniem ze sztucznej inteligencji bez kontroli, wielu pracowników nadal godzi się na kompromis w kwestii natychmiastowych korzyści (Ilustracja: CV).

Podobnie Trung Hieu (20 lat), pracownik działu marketingu treści, również regularnie udostępnia wewnętrzne dokumenty i informacje biznesowe chatbotowi opartemu na sztucznej inteligencji.

Hieu zauważył znaczny wzrost produktywności, co dało mu przewagę konkurencyjną, i uważa, że ​​nie ma to większego wpływu na działalność firmy.

Przypadki te pokazują, że Shadow AI rozprzestrzenia się z powodu braku jasnej polityki firmy i niewystarczającej świadomości pracowników na temat ryzyka związanego z bezpieczeństwem, jakością i zależnościami.

Seria zagrożeń wynikających z nadmiernego zaufania do sztucznej inteligencji

Pan Nguyen Viet Hung, dyrektor generalny firmy zajmującej się tworzeniem oprogramowania do zastosowań AI, wyjaśnia, że ​​popularność Shadow AI wynika z trzech czynników: sztucznej inteligencji (AI) pozwalającej pracować szybciej i wydajniej; nawyku szybkiego polegania na formularzach AI; oraz braku ostrzeżeń i szkoleń dotyczących ryzyka w firmach.

Sếp buông lỏng, nhân viên thản nhiên cấp dữ liệu mật cho AI - 4

Pan Nguyen Viet Hung, dyrektor generalny firmy zajmującej się tworzeniem oprogramowania do zastosowań w sztucznej inteligencji (zdjęcie: Cong Khanh).

Eksperci ostrzegają, że Shadow AI może prowadzić do wycieków danych (klientów, wewnętrznych), gdy zostanie wdrożony w bezpłatnych narzędziach AI.

Ponadto jakość treści generowanych przez sztuczną inteligencję nie jest weryfikowana, co może łatwo prowadzić do stronniczości i wpływać na decyzje biznesowe.

Co poważniejsze, niekontrolowane wykorzystanie sztucznej inteligencji może prowadzić do powstawania luk w zabezpieczeniach, utrudniając systemom informatycznym monitorowanie sytuacji i szybką reakcję, a także utrudniając ustalenie odpowiedzialności w przypadku wystąpienia incydentów.

Ciemne obszary są trudne do kontrolowania.

Monitorowanie i zarządzanie pracownikami za pomocą sztucznej inteligencji to długi i skoordynowany proces. Eksperci twierdzą, że dostęp pracowników do danych wewnętrznych stanowi poważną przeszkodę w zapobieganiu przekazywaniu przez nich prywatnych danych za pośrednictwem osobistych narzędzi sztucznej inteligencji.

Co więcej, narzędzia AI są teraz łatwo dostępne, co utrudnia działom IT ich wykrywanie i zarządzanie.

Sếp buông lỏng, nhân viên thản nhiên cấp dữ liệu mật cho AI - 5

Łatwy dostęp do narzędzi AI to jedna z barier utrudniających kontrolowanie informacji, jakie pracownicy umieszczają na platformach AI (Ilustracja: CV).

Aby sobie z tym poradzić, ekspert Nguyen Viet Hung zasugerował, że firmy muszą zwiększyć liczbę szkoleń pracowników na temat świadomości ryzyka związanego z korzystaniem ze sztucznej inteligencji i lepiej zrozumieć zjawisko „Shadow AI”.

Jednocześnie należy niezwłocznie wydawać regulacje prawne i wewnętrzne procedury. Kolejnym ważnym rozwiązaniem jest wzmocnienie zabezpieczeń w przedsiębiorstwie, w tym monitoring zachowań, kontrola dostępu do danych i staranne autoryzowanie każdego pracownika.

Obecnie wiele firm nadal nie ma jasno określonego procesu wdrażania sztucznej inteligencji (AI), a jedynie zachęca do jej stosowania w celu zwiększenia produktywności. Aby poradzić sobie z ukrytą sztuczną inteligencją (Shadow AI), wiele dużych przedsiębiorstw zaczęło wdrażać wewnętrzne platformy AI lub wymagać od pracowników korzystania z zatwierdzonych narzędzi z jasno określonymi zasadami bezpieczeństwa informacji.

Source: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm


Tag: ChatGPT

Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Ulica Hang Ma „zmienia szaty”, by powitać Święto Środka Jesieni
Suoi Bon, fioletowe wzgórze Sim, kwitnie wśród unoszącego się morza chmur w Son La
Turyści przybywają tłumnie do Y Ty, zanurzeni w najpiękniejszych tarasowych polach na Północnym Zachodzie
Zbliżenie na rzadkie gołębie nikobarskie w Parku Narodowym Con Dao

Od tego samego autora

Dziedzictwo

Postać

Biznes

No videos available

Aktualności

System polityczny

Lokalny

Produkt