هوش مصنوعی تاریک خارج از استانداردهای ایمنی عمل میکند و اغلب بدون نظارت دقیق، رفتارهایی مانند کلاهبرداری، دستکاری، حملات سایبری یا سوءاستفاده از دادهها را امکانپذیر میسازد.
سرگئی لوژکین، رئیس تیم تحقیق و تحلیل جهانی (GReAT) برای خاورمیانه، ترکیه، آفریقا و آسیا و اقیانوسیه در کسپرسکی، گفت: «عاملان مخرب همچنین از هوش مصنوعی برای افزایش قابلیتهای حمله خود سوءاستفاده میکنند. رایجترین سوءاستفاده از هوش مصنوعی امروزه ظهور مدلهای GPT کلاه سیاه است. اینها مدلهای هوش مصنوعی هستند که بهطور خاص برای اهداف غیرقانونی مانند ایجاد بدافزار، تهیه ایمیلهای فیشینگ، تولید ویدیوهای صوتی و دیپفیک و... توسعه یافته یا اصلاح شدهاند .»
GPT های کلاه سیاه میتوانند به عنوان مدلهای هوش مصنوعی کاملاً خصوصی یا نیمه خصوصی وجود داشته باشند. برخی از نمونههای قابل توجه شامل WormGPT، DarkBard، FraudGPT و Xanthorox هستند که همگی برای خدمت به جرایم سایبری، کلاهبرداری و فعالیتهای اتوماسیون مخرب طراحی شدهاند.
لوژکین فاش کرد که کارشناسان کسپرسکی اکنون شاهد یک روند نگرانکنندهتر هستند: گروههای حمله سایبری تحت حمایت دولت یا حکومت ، شروع به استفاده از مدلهای زبان بزرگ (LLM) در کمپینهای حمله خود کردهاند.
لوژکین به اشتراک گذاشت: «اُپنایآی اخیراً اعلام کرد که بیش از ۲۰ کمپین نفوذ پنهانی و حمله سایبری که از ابزارهای هوش مصنوعی آن سوءاستفاده میکردند را خنثی کرده است. ما باید با مهاجمان پیچیدهتری که از هوش مصنوعی به عنوان سلاح استفاده میکنند و به تهدیدی در اکوسیستمهای عمومی و خصوصی تبدیل میشوند، روبرو شویم. این یک روند نگرانکننده است که همه سازمانها باید برای مواجهه با آن آماده شوند.»
طبق گزارش OpenAI، عوامل مخرب شروع به سوءاستفاده از قابلیتهای مدلهای یادگیری ماشینی (LLM) در مقیاس بزرگ برای فریب قربانیان و دور زدن لایههای امنیتی مرسوم کردهاند. آنها میتوانند پیامهای جعلی قانعکننده ایجاد کنند، پیامهای انبوه به قربانیان ارسال کنند و محتوا را به چندین زبان تولید کنند.
کارشناسان کسپرسکی برای تقویت دفاع در برابر تهدیدات هوش مصنوعی تاریک، موارد زیر را توصیه میکنند: استفاده از راهکارهای امنیتی نسل بعدی مانند کسپرسکی نکست برای شناسایی بدافزارهای تولید شده توسط هوش مصنوعی و کنترل خطرات زنجیره تأمین؛ استفاده از ابزارهای هوش تهدید در لحظه برای نظارت بر سوءاستفاده از آسیبپذیریهای مبتنی بر هوش مصنوعی؛ تقویت کنترل دسترسی و آموزش کارکنان برای محدود کردن هوش مصنوعی سایه و خطرات نشت دادهها؛ و ایجاد یک مرکز عملیات امنیتی (SOC) برای نظارت بر تهدیدات و پاسخ سریع به حوادث.
منبع: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






نظر (0)