هوش مصنوعی تاریک خارج از هنجارهای ایمنی عمل میکند و اغلب بدون نظارت دقیق، رفتارهایی مانند کلاهبرداری، دستکاری، حملات سایبری یا دادهکاوی را ممکن میسازد.
«عاملان بد همچنین از هوش مصنوعی برای افزایش قابلیتهای حمله خود استفاده میکنند. رایجترین سوءاستفاده از هوش مصنوعی امروزه ظهور مدلهای GPT کلاه سیاه است. اینها مدلهای هوش مصنوعی هستند که بهطور خاص برای اهداف غیرقانونی مانند ایجاد بدافزار، تهیه ایمیلهای فیشینگ، ایجاد صدا و ویدیوهای دیپفیک توسعه یافته یا تطبیق داده شدهاند...» این گفتهی سرگئی لوژکین، رئیس تیم تحقیق و تحلیل جهانی (GReAT) مسئول خاورمیانه، ترکیه، آفریقا و آسیا- اقیانوسیه در کسپرسکی است.
GPT های کلاه سیاه میتوانند به عنوان مدلهای هوش مصنوعی کاملاً خصوصی یا نیمه خصوصی وجود داشته باشند. برخی از نمونههای قابل توجه شامل WormGPT، DarkBard، FraudGPT و Xanthorox هستند... که همگی برای جرایم سایبری، کلاهبرداری و اتوماسیون مخرب طراحی شدهاند.
آقای لوژکین فاش کرد که متخصصان کسپرسکی اکنون روند نگرانکنندهتری را ثبت میکنند، چرا که گروههای حمله سایبری تحت حمایت دولت یا ملت شروع به استفاده از مدلهای زبان بزرگ (LLM) در کمپینهای حمله خود کردهاند.
لوژکین گفت: «اخیراً OpenAI اعلام کرد که بیش از 20 کمپین نفوذ پنهانی و حمله سایبری را که از ابزارهای هوش مصنوعی آن سوءاستفاده میکردند، مختل کرده است. ما شاهد مهاجمان پیچیدهتری خواهیم بود که از هوش مصنوعی به عنوان سلاح استفاده میکنند و تهدیدی را در اکوسیستمهای عمومی و خصوصی ایجاد میکنند. این یک روند نگرانکننده است که همه سازمانها باید برای آن آماده شوند.»
طبق گزارش OpenAI، مهاجمان سایبری شروع به سوءاستفاده از قابلیتهای مدلهای بزرگ یادگیری ماشینی (LLM) برای فریب قربانیان و دور زدن لایههای امنیتی مرسوم کردهاند. آنها میتوانند پیامهای جعلی قانعکننده ایجاد کنند، پیامها را به صورت انبوه برای قربانیان ارسال کنند و محتوا را به چندین زبان تولید کنند.
کارشناسان کسپرسکی برای تقویت دفاع در برابر تهدیدات هوش مصنوعی تاریک، موارد زیر را توصیه میکنند: استفاده از راهکارهای امنیتی نسل بعدی مانند کسپرسکی نکست برای شناسایی بدافزارهای تولید شده توسط هوش مصنوعی و کنترل خطرات در زنجیره تأمین. بهکارگیری ابزارهای هوش تهدید بلادرنگ برای نظارت بر سوءاستفادههای مبتنی بر هوش مصنوعی. تقویت کنترلهای دسترسی و آموزش کارکنان برای محدود کردن هوش مصنوعی سایه و خطر نشت دادهها. ایجاد یک مرکز عملیات امنیتی (SOC) برای نظارت بر تهدیدات و پاسخ سریع به حوادث.
منبع: https://www.sggp.org.vn/kaspersky-canh-bao-toi-pham-mang-dung-dark-ai-tan-cong-post808493.html






نظر (0)