Застосування штучного інтелекту (ШІ) в роботі стало неминучою тенденцією, допомагаючи підвищити ефективність та заощадити час.
Однак за цією зручністю криються потенційні ризики для безпеки даних, особливо явище «тіньового штучного інтелекту» – коли співробітники використовують інструменти штучного інтелекту недбало, безконтрольно, випадково розміщуючи конфіденційні дані компанії на публічних платформах.
Залежність та початкові проблеми
Тхань Хуєн (21 рік), співробітниця відділу контент-маркетингу в компанії з виробництва косметики та функціональних продуктів харчування, розповіла, що вона на 90% покладається на штучний інтелект у своїй роботі, від планування та створення контенту до розробки зображень та відео .
Однак, як тільки вона випадково натрапила на статтю, схожу на ідею, про яку вона запитала ChatGPT, Хуєн почала хвилюватися щодо здатності штучного інтелекту запам'ятовувати та ділитися вхідною інформацією.

Застосування штучного інтелекту в роботі стало майже стандартним для багатьох галузей промисловості наразі (Фото: Бао Нгок).
Хоча історія Хуєна може бути збігом обставин, незаперечним фактом є те, що надання інформації штучному інтелекту означає дозвіл цим інструментам збирати та зберігати дані для навчання моделі.
Проблема стає серйозною, якщо платформа штучного інтелекту зламана або погано захищена, що призводить до витоку інформації та негативних наслідків.
"Тіньовий ШІ" - потенційна небезпека
ХМ (20 років), спеціаліст з обслуговування клієнтів, регулярно надає ШІ список інформації про клієнтів (повне ім'я, дату народження, номер телефону, історію покупок) для аналізу, що заощаджує час і покращує продуктивність.
М. вважає, що це не є потенційним ризиком, оскільки компанія невелика, і дані не будуть розголошені. Однак випадок М. є типовим для «тіньового штучного інтелекту» – використання штучного інтелекту співробітниками без схвалення чи нагляду відділу інформаційних технологій чи кібербезпеки.

Феномен «тіньового штучного інтелекту» стосується використання штучного інтелекту співробітниками в компаніях без будь-якого контролю чи управління (ілюстрація: резюме).
Звіт Cisco показав, що 62% організацій у В'єтнамі не впевнені у виявленні нерегульованого використання штучного інтелекту співробітниками. Опитування у Великій Британії також показало, що 75% менеджерів з кібербезпеки стурбовані внутрішніми загрозами, такими як тіньовий штучний інтелект.
Це показує, що тіньовий штучний інтелект стає поширеною загрозою, особливо коли багато компаній не мають чіткої політики щодо використання штучного інтелекту, а співробітники недостатньо обізнані з безпекою даних.
Приймайте компроміси, щоб не відставати
Незважаючи на усвідомлення ризиків, Тхань Хуєн все ж погоджується «ставити» на ШІ. Вона вважає, що безпосередні переваги, які приносить ШІ, занадто великі, що допомагає їй щодня створювати десятки статей та ідей.
Зручність, швидкість та можливість підвищити продуктивність зробили так, що Хуєн охоче надавала ШІ конфіденційну інформацію, навіть особисту інформацію свого керівництва.

Незважаючи на потенційні ризики використання ШІ без контролю, багато працівників все ще погоджуються на компроміс заради негайних вигод (ілюстрація: резюме).
Так само Чунг Х'єу (20 років), співробітник відділу контент-маркетингу, також регулярно надає внутрішні документи та бізнес-інформацію чат-боту зі штучним інтелектом.
Хіу помітив значне зростання продуктивності, що створило конкурентну перевагу, і вважає, що це не надто впливає на діяльність компанії.
Ці випадки показують, що тіньовий штучний інтелект поширюється через відсутність чіткої політики з боку компанії та недостатню обізнаність співробітників щодо ризиків безпеки, якості та залежності.
Низка ризиків, пов'язаних із надмірною довірою до ШІ
Пан Нгуєн В'єт Хунг, генеральний директор компанії з розробки програмного забезпечення на основі штучного інтелекту, пояснює популярність тіньового штучного інтелекту трьома факторами: ШІ допомагає працювати швидше та ефективніше; швидко формується звичка покладатися на ШІ; а також бракує попереджень та навчання бізнесу щодо ризиків.

Пан Нгуєн В'єт Хунг, генеральний директор компанії з розробки програмного забезпечення на основі штучного інтелекту (Фото: Конг Хань).
Експерти попереджають, що тіньовий штучний інтелект може призвести до витоку даних (клієнтських, внутрішніх) при використанні безкоштовних інструментів штучного інтелекту.
Крім того, якість контенту, створеного штучним інтелектом, не перевіряється, що може легко призвести до упередженості та вплинути на бізнес-рішення.
Що ще серйозніше, неконтрольоване використання штучного інтелекту може створювати вразливості безпеки, ускладнюючи моніторинг та оперативне реагування ІТ-систем, а також визначення відповідальності у разі виникнення інцидентів.
Темні ділянки важко контролювати.
Моніторинг та управління співробітниками за допомогою штучного інтелекту – це тривалий та скоординований процес. Експерти кажуть, що доступ співробітників до внутрішніх даних створює головну перешкоду для запобігання передачі ними конфіденційних даних через особисті інструменти штучного інтелекту.
Крім того, інструменти штучного інтелекту тепер легкодоступні, що ускладнює їх виявлення або управління ІТ-відділами.

Легкий доступ до інструментів штучного інтелекту є однією з перешкод, що ускладнює контроль інформації, яку співробітники розміщують на платформах штучного інтелекту (ілюстрація: резюме).
Щоб впоратися з цим, експерт Нгуєн В'єт Хунг запропонував підприємствам посилити навчання співробітників щодо усвідомлення ризиків під час використання штучного інтелекту та отримати глибше розуміння «тіньового штучного інтелекту».
Водночас оперативно видавати правові норми та внутрішні політики. Ще одним важливим рішенням є посилення можливостей безпеки на підприємстві, включаючи моніторинг поведінки, контроль доступу до даних та ретельну авторизацію кожного співробітника.
Наразі багато компаній досі не мають чіткого процесу використання ШІ, лише заохочуючи його використання для підвищення продуктивності. Щоб боротися з тіньовим ШІ, багато великих підприємств почали розгортати внутрішні платформи ШІ або вимагати від співробітників використання затверджених інструментів із чіткими політиками інформаційної безпеки.
Джерело: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
Коментар (0)