هوش مصنوعی مخرب ارزان و در دسترس
در انجمنهای وب تاریک، ابزارهایی مانند WormGPT، FraudGPT و EvilCoder AI دیگر یک راز نیستند، بلکه آشکارا به عنوان یک سرویس اشتراکی معمولی تبلیغ میشوند. نکته نگرانکننده این است که فقط با چند صد دلار در سال، هر کسی میتواند یک «دستیار هوش مصنوعی» خطرناک برای انجام حملات سایبری پیچیده داشته باشد.

کارشناسان امنیتی داخلی و بینالمللی اخیراً افزایش سریع حملات ناشی از این ابزارهای مخرب هوش مصنوعی را ثبت کردهاند. به طور معمول، FraudGPT، خریداران فقط باید حدود ۲۰۰ دلار در ماه بپردازند، این ابزار بلافاصله از آنها پشتیبانی میکند تا مجموعهای از ایمیلهای فیشینگ شخصیسازی شده با محتوای واقعی ایجاد کنند یا کد بهرهبرداری کامل از آسیبپذیری امنیتی را بنویسند.
WormGPT، نسخهی ارزانتر این بدافزار هوش مصنوعی، تنها ۶۰ یورو در ماه هزینه دارد و قابلیت تولید بدافزار چندریختی را ارائه میدهد که میتواند بهطور مداوم جهش یابد و از اکثر سیستمهای آنتیویروس سنتی عبور کند. این یک چالش جدید برای تیمهای امنیتی شرکتها است، زیرا مهاجمان دیگر نیازی به مهارتهای برنامهنویسی پیشرفته ندارند - آنها فقط باید بدانند که چگونه از این ابزارهای موجود استفاده کنند.
مدلهای هوش مصنوعی مخرب مانند WormGPT و FraudGPT بر اساس معماریهای مدل زبانی مشابه ChatGPT ساخته شدهاند، اما برای حذف موانع اخلاقی اصلاح شدهاند. این ابزارها میتوانند:
بر اساس اطلاعات جمعآوریشده از پلتفرمهای رسانههای اجتماعی یا منابع داده عمومی، بهطور خودکار ایمیلهای فیشینگ با محتوای کاملاً شخصیسازیشده تولید کنید.
انواع جدید بدافزار را کاملاً خودکار بنویسید و بهطور مداوم امضاها را تغییر دهید تا از شناسایی توسط راهحلهای آنتیویروس سنتی مبتنی بر هش جلوگیری کنید.
به طور خودکار کد اکسپلویتی را توسعه میدهد که آسیبپذیریهای امنیتی شناخته شده (CVE) را هدف قرار میدهد و نفوذ مهاجمان به سیستمهای آسیبپذیر را آسانتر میکند.
انجمنهای وب تاریک همچنین پشتیبانی و راهنماهای کاربری دقیقی ارائه میدهند و به هر کسی، حتی افراد غیرفنی، اجازه میدهند حملهای را آغاز کند.
در سه ماهه اول سال 2025، بسیاری از مشاغل بینالمللی حملات جدی ناشی از این ابزارهای هوش مصنوعی را ثبت کردند. برخی از شرکتها در ایالات متحده و اروپا گزارش دادند که با حملات فیشینگ و بدافزارهای بیسابقهای از طریق هوش مصنوعی مواجه شدهاند که سیستمهای امنیتی سنتی را تقریباً به طور کامل بیفایده کرده است.
دفاع پیشگیرانه هوش مصنوعی در لحظه
با درک این واقعیت، کارشناسان امنیتی CMC Telecom به سرعت راهکارهای دفاعی ویژهای را برای مقابله با ابزارهای حمله هوش مصنوعی ارزان و در دسترس در موارد زیر مستقر کردهاند:
فناوری فریب: به طور فعال یک محیط شبیهسازی شده در سیستم ایجاد میکند و باعث میشود هکرهای هوش مصنوعی وقت خود را صرف اهداف جعلی کنند و به کسبوکارها کمک میکند تا تکنیکهای حمله را به موقع شناسایی و تجزیه و تحلیل کنند.
سندباکسینگ یکپارچه با هوش مصنوعی: تمام ایمیلها و فایلهای مشکوک در یک محیط ایزوله مجازی به طور کامل بررسی میشوند تا نشانههای بدافزار چندریختی شناسایی شوند.

SOAR - اتوماسیون واکنش به حادثه: هنگام تشخیص علائم حمله از بدافزارهای مبتنی بر هوش مصنوعی، سیستم به طور خودکار اقدامات واکنش سریع را انجام میدهد و آسیب و زمان پاسخ را به حداقل میرساند.
هوش تهدید پیشرفته: هر روز دادههای حمله جدید را تجزیه و تحلیل کنید، شاخصهای سازش (IOC) را به طور مداوم بهروزرسانی کنید و به کسبوکارها کمک کنید تا یک قدم جلوتر از مهاجمان باشند.
این راهکارها توسط تیم متخصصان امنیتی CMC Telecom اداره میشوند. این تیم متخصص به طور مداوم در تالار مشاهیر اپل مورد تقدیر قرار گرفتهاند و دارای گواهینامههای بینالمللی بسیاری مانند OSCP، CREST و CHFI هستند.
به گفته آقای لو دِ هین - معاون مدیر مرکز خدمات امنیت اطلاعات CMC Telecom - ابزارهایی مانند WormGPT و FraudGPT دیگر متعلق به آینده نیستند - بلکه به یک تهدید وجودی تبدیل شدهاند. رهبران کسبوکار باید کاملاً آگاه باشند: آنها نمیتوانند همچنان منتظر بمانند یا دسترسی فوری به فناوریهای دفاعی مناسب را به تأخیر بیندازند.
تیم متخصصان CMC Telecom معتقد است که تنها با بهکارگیری پیشگیرانه هوش مصنوعی در امنیت، میتوانیم با روشی پیچیده و ارزان با حملات سایبری هوش مصنوعی مبارزه کنیم، بهویژه زمانی که این حملات با سرعتی بیش از گذشته رخ میدهند.
توی نگا
منبع: https://vietnamnet.vn/chu-dong-phong-ve-truoc-cac-cong-cu-tan-cong-ai-2415360.html






نظر (0)