استفاده از هوش مصنوعی (AI) در کار به یک روند اجتنابناپذیر تبدیل شده است و به بهبود کارایی و صرفهجویی در زمان کمک میکند.
با این حال، در پس این راحتی، خطرات بالقوهای برای امنیت دادهها، به ویژه پدیده «هوش مصنوعی در سایه» وجود دارد - زمانی که کارمندان با بیدقتی و بدون کنترل از ابزارهای هوش مصنوعی استفاده میکنند و بهطور تصادفی دادههای محرمانه شرکت را در پلتفرمهای عمومی قرار میدهند.
وابستگی و نگرانیهای اولیه
تان هوین (۲۱ ساله)، کارمند بازاریابی محتوا در یک شرکت لوازم آرایشی و بهداشتی و مواد غذایی کاربردی، اظهار داشت که در کارش، از برنامهریزی، ساخت محتوا گرفته تا طراحی تصاویر و ویدیوها ، ۹۰٪ به هوش مصنوعی متکی است.
با این حال، وقتی هوین بهطور اتفاقی به مقالهای مشابه ایدهای که از ChatGPT پرسیده بود برخورد، نگران توانایی هوش مصنوعی در به خاطر سپردن و به اشتراک گذاشتن اطلاعات ورودی شد.

در حال حاضر، بهکارگیری هوش مصنوعی در کار تقریباً به پیشفرض بسیاری از صنایع تبدیل شده است (عکس: بائو نگوک).
اگرچه داستان هوین ممکن است یک تصادف باشد، اما واقعیت غیرقابل انکار این است که ارائه اطلاعات به هوش مصنوعی به معنای اجازه دادن به این ابزارها برای جمعآوری و ذخیره دادهها برای آموزش مدل است.
اگر پلتفرم هوش مصنوعی هک شود یا امنیت ضعیفی داشته باشد، مشکل جدی میشود و منجر به نشت اطلاعات و پیامدهای منفی میشود.
«هوش مصنوعی سایه» - یک خطر بالقوه
اچ ام (۲۰ ساله)، متخصص خدمات مشتری، به طور منظم فهرستی از اطلاعات مشتری (نام کامل، تاریخ تولد، شماره تلفن، سابقه خرید) را برای تجزیه و تحلیل، صرفه جویی در زمان و بهبود عملکرد در اختیار هوش مصنوعی قرار میدهد.
م. معتقد است که این یک خطر بالقوه نیست زیرا شرکت کوچک است و دادهها فاش نخواهند شد. با این حال، مورد م. نمونهای از «هوش مصنوعی سایه» است - استفاده از هوش مصنوعی توسط کارمندان بدون تأیید یا نظارت بخش فناوری اطلاعات یا امنیت سایبری.

پدیده «هوش مصنوعی در سایه» به استفاده از هوش مصنوعی توسط کارمندان در کسبوکارها بدون هیچ کنترل یا مدیریتی اشاره دارد (تصویر: CV).
یک گزارش سیسکو نشان داد که ۶۲٪ از سازمانها در ویتنام اعتماد به نفس کافی برای تشخیص استفاده غیرقانونی از هوش مصنوعی توسط کارمندان خود را ندارند. یک نظرسنجی در بریتانیا نیز نشان داد که ۷۵٪ از مدیران امنیت سایبری نگران تهدیدات داخلی مانند هوش مصنوعی سایه هستند.
این نشان میدهد که هوش مصنوعی در سایه در حال تبدیل شدن به یک تهدید رایج است، به خصوص زمانی که بسیاری از کسبوکارها سیاستهای روشنی در مورد استفاده از هوش مصنوعی ندارند و کارمندان از امنیت دادهها آگاهی ندارند.
برای جلوگیری از عقب ماندن، بده بستانها را بپذیرید
با وجود آگاهی از خطرات، تان هوین هنوز هم قبول میکند که روی هوش مصنوعی "شرطبندی" کند. او معتقد است که مزایای فوری که هوش مصنوعی به همراه دارد بسیار زیاد است و به او کمک میکند تا روزانه دهها مقاله و ایده تولید کند.
راحتی، سرعت و توانایی افزایش عملکرد، هوین را مشتاق کرده است تا اطلاعات حساس و محرمانه، حتی اطلاعات شخصی مافوقهایش را، در اختیار هوش مصنوعی قرار دهد.

علیرغم خطرات بالقوه استفاده از هوش مصنوعی بدون کنترل، بسیاری از کارمندان هنوز هم این معامله را برای مزایای فوری میپذیرند (تصویر: CV).
به همین ترتیب، ترونگ هیو (۲۰ ساله)، کارمند بازاریابی محتوا، مرتباً اسناد داخلی و اطلاعات تجاری را در اختیار چتبات هوش مصنوعی قرار میدهد.
هیو متوجه افزایش قابل توجه بهرهوری شد که یک مزیت رقابتی ایجاد میکند و معتقد است که این موضوع تأثیر زیادی بر عملکرد شرکت ندارد.
این موارد نشان میدهد که هوش مصنوعی سایه به دلیل فقدان سیاستهای روشن از سوی شرکت و آگاهی ناکافی کارمندان در مورد خطرات امنیتی، کیفیت و وابستگی، در حال گسترش است.
مجموعهای از خطرات هنگام اعتماد بیش از حد به هوش مصنوعی
آقای نگوین ویت هونگ، مدیرعامل یک شرکت توسعه نرمافزار کاربردی هوش مصنوعی، محبوبیت هوش مصنوعی سایه را به سه عامل توضیح میدهد: هوش مصنوعی به کار سریعتر و کارآمدتر کمک میکند؛ عادت وابستگی به هوش مصنوعی به سرعت شکل میگیرد؛ و کسبوکارها فاقد هشدارها و آموزش در مورد خطرات هستند.

آقای نگوین ویت هونگ، مدیرعامل یک شرکت توسعه نرمافزار کاربردی هوش مصنوعی (عکس: کانگ خان).
کارشناسان هشدار میدهند که هوش مصنوعی سایه (Shadow AI) در صورت استفاده از ابزارهای هوش مصنوعی رایگان، میتواند منجر به نشت دادهها (مشتری، داخلی) شود.
علاوه بر این، کیفیت محتوای تولید شده توسط هوش مصنوعی تأیید نمیشود، که به راحتی میتواند منجر به سوگیری و تأثیرگذاری بر تصمیمات تجاری شود.
جدیتر اینکه، استفادهی کنترلنشده از هوش مصنوعی میتواند آسیبپذیریهای امنیتی ایجاد کند، نظارت و واکنش سریع سیستمهای فناوری اطلاعات را دشوار سازد و تعیین مسئولیت در هنگام وقوع حوادث را دشوار سازد.
کنترل مناطق تاریک دشوار است.
نظارت و مدیریت کارمندان با استفاده از هوش مصنوعی یک فرآیند طولانی و هماهنگ است. کارشناسان میگویند دسترسی کارمندان به دادههای داخلی، مانع بزرگی برای جلوگیری از انتقال دادههای خصوصی از طریق ابزارهای هوش مصنوعی شخصی ایجاد میکند.
علاوه بر این، ابزارهای هوش مصنوعی اکنون به راحتی در دسترس هستند و همین امر تشخیص یا مدیریت آنها را برای بخش فناوری اطلاعات دشوار میکند.

دسترسی آسان به ابزارهای هوش مصنوعی یکی از موانعی است که کنترل اطلاعاتی را که کارمندان روی پلتفرمهای هوش مصنوعی قرار میدهند، دشوارتر میکند (تصویر: رزومه).
برای مقابله با این مشکل، متخصص نگوین ویت هونگ پیشنهاد کرد که کسبوکارها باید آموزش کارکنان خود را در مورد آگاهی از ریسک هنگام استفاده از هوش مصنوعی افزایش دهند و درک عمیقتری از «هوش مصنوعی در سایه» به دست آورند.
همزمان، مقررات قانونی و سیاستهای داخلی را به سرعت وضع کنید. راهکار مهم دیگر، تقویت قابلیتهای امنیتی در سازمان، از جمله نظارت رفتاری، کنترل دسترسی به دادهها و مجوزدهی دقیق برای هر کارمند است.
در حال حاضر، بسیاری از شرکتها هنوز فرآیند مشخصی برای استفاده از هوش مصنوعی ندارند و تنها استفاده از آن را برای افزایش بهرهوری تشویق میکنند. برای مقابله با هوش مصنوعی در سایه، بسیاری از شرکتهای بزرگ شروع به استقرار پلتفرمهای هوش مصنوعی داخلی کردهاند یا کارمندان را ملزم به استفاده از ابزارهای تأیید شده با سیاستهای امنیت اطلاعات واضح کردهاند.
منبع: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
نظر (0)