هوش مصنوعی مخرب ارزان و در دسترس

در انجمن‌های وب تاریک، ابزارهایی مانند WormGPT، FraudGPT و EvilCoder AI دیگر یک راز نیستند، بلکه آشکارا به عنوان یک سرویس اشتراکی معمولی تبلیغ می‌شوند. نکته نگران‌کننده این است که فقط با چند صد دلار در سال، هر کسی می‌تواند یک «دستیار هوش مصنوعی» خطرناک برای انجام حملات سایبری پیچیده داشته باشد.

عکس 1 (10).JPG

کارشناسان امنیتی داخلی و بین‌المللی اخیراً افزایش سریع حملات ناشی از این ابزارهای مخرب هوش مصنوعی را ثبت کرده‌اند. به طور معمول، FraudGPT، خریداران فقط باید حدود ۲۰۰ دلار در ماه بپردازند، این ابزار بلافاصله از آنها پشتیبانی می‌کند تا مجموعه‌ای از ایمیل‌های فیشینگ شخصی‌سازی شده با محتوای واقعی ایجاد کنند یا کد بهره‌برداری کامل از آسیب‌پذیری امنیتی را بنویسند.

WormGPT، نسخه‌ی ارزان‌تر این بدافزار هوش مصنوعی، تنها ۶۰ یورو در ماه هزینه دارد و قابلیت تولید بدافزار چندریختی را ارائه می‌دهد که می‌تواند به‌طور مداوم جهش یابد و از اکثر سیستم‌های آنتی‌ویروس سنتی عبور کند. این یک چالش جدید برای تیم‌های امنیتی شرکت‌ها است، زیرا مهاجمان دیگر نیازی به مهارت‌های برنامه‌نویسی پیشرفته ندارند - آنها فقط باید بدانند که چگونه از این ابزارهای موجود استفاده کنند.

مدل‌های هوش مصنوعی مخرب مانند WormGPT و FraudGPT بر اساس معماری‌های مدل زبانی مشابه ChatGPT ساخته شده‌اند، اما برای حذف موانع اخلاقی اصلاح شده‌اند. این ابزارها می‌توانند:

بر اساس اطلاعات جمع‌آوری‌شده از پلتفرم‌های رسانه‌های اجتماعی یا منابع داده عمومی، به‌طور خودکار ایمیل‌های فیشینگ با محتوای کاملاً شخصی‌سازی‌شده تولید کنید.

انواع جدید بدافزار را کاملاً خودکار بنویسید و به‌طور مداوم امضاها را تغییر دهید تا از شناسایی توسط راه‌حل‌های آنتی‌ویروس سنتی مبتنی بر هش جلوگیری کنید.

به طور خودکار کد اکسپلویتی را توسعه می‌دهد که آسیب‌پذیری‌های امنیتی شناخته شده (CVE) را هدف قرار می‌دهد و نفوذ مهاجمان به سیستم‌های آسیب‌پذیر را آسان‌تر می‌کند.

انجمن‌های وب تاریک همچنین پشتیبانی و راهنماهای کاربری دقیقی ارائه می‌دهند و به هر کسی، حتی افراد غیرفنی، اجازه می‌دهند حمله‌ای را آغاز کند.

در سه ماهه اول سال 2025، بسیاری از مشاغل بین‌المللی حملات جدی ناشی از این ابزارهای هوش مصنوعی را ثبت کردند. برخی از شرکت‌ها در ایالات متحده و اروپا گزارش دادند که با حملات فیشینگ و بدافزارهای بی‌سابقه‌ای از طریق هوش مصنوعی مواجه شده‌اند که سیستم‌های امنیتی سنتی را تقریباً به طور کامل بی‌فایده کرده است.

دفاع پیشگیرانه هوش مصنوعی در لحظه

با درک این واقعیت، کارشناسان امنیتی CMC Telecom به سرعت راهکارهای دفاعی ویژه‌ای را برای مقابله با ابزارهای حمله هوش مصنوعی ارزان و در دسترس در موارد زیر مستقر کرده‌اند:

فناوری فریب: به طور فعال یک محیط شبیه‌سازی شده در سیستم ایجاد می‌کند و باعث می‌شود هکرهای هوش مصنوعی وقت خود را صرف اهداف جعلی کنند و به کسب‌وکارها کمک می‌کند تا تکنیک‌های حمله را به موقع شناسایی و تجزیه و تحلیل کنند.

سندباکسینگ یکپارچه با هوش مصنوعی: تمام ایمیل‌ها و فایل‌های مشکوک در یک محیط ایزوله مجازی به طور کامل بررسی می‌شوند تا نشانه‌های بدافزار چندریختی شناسایی شوند.

عکس ۲ + پست فیسبوک.jpg

SOAR - اتوماسیون واکنش به حادثه: هنگام تشخیص علائم حمله از بدافزارهای مبتنی بر هوش مصنوعی، سیستم به طور خودکار اقدامات واکنش سریع را انجام می‌دهد و آسیب و زمان پاسخ را به حداقل می‌رساند.

هوش تهدید پیشرفته: هر روز داده‌های حمله جدید را تجزیه و تحلیل کنید، شاخص‌های سازش (IOC) را به طور مداوم به‌روزرسانی کنید و به کسب‌وکارها کمک کنید تا یک قدم جلوتر از مهاجمان باشند.

این راهکارها توسط تیم متخصصان امنیتی CMC Telecom اداره می‌شوند. این تیم متخصص به طور مداوم در تالار مشاهیر اپل مورد تقدیر قرار گرفته‌اند و دارای گواهینامه‌های بین‌المللی بسیاری مانند OSCP، CREST و CHFI هستند.

به گفته آقای لو دِ هین - معاون مدیر مرکز خدمات امنیت اطلاعات CMC Telecom - ابزارهایی مانند WormGPT و FraudGPT دیگر متعلق به آینده نیستند - بلکه به یک تهدید وجودی تبدیل شده‌اند. رهبران کسب‌وکار باید کاملاً آگاه باشند: آنها نمی‌توانند همچنان منتظر بمانند یا دسترسی فوری به فناوری‌های دفاعی مناسب را به تأخیر بیندازند.

تیم متخصصان CMC Telecom معتقد است که تنها با به‌کارگیری پیشگیرانه هوش مصنوعی در امنیت، می‌توانیم با روشی پیچیده و ارزان با حملات سایبری هوش مصنوعی مبارزه کنیم، به‌ویژه زمانی که این حملات با سرعتی بیش از گذشته رخ می‌دهند.

توی نگا

منبع: https://vietnamnet.vn/chu-dong-phong-ve-truoc-cac-cong-cu-tan-cong-ai-2415360.html