هوش مصنوعی در حال تبدیل شدن به دستیاری قدرتمند برای مجرمان سایبری است. عکس: Cato Networks . |
نه تنها کاربران عادی، بلکه مجرمان سایبری نیز به طور فزایندهای از هوش مصنوعی برای ایجاد حملات پیچیدهتر از همیشه استفاده میکنند. در کمتر از ۲ سال، ابزارهای هوش مصنوعی برای پشتیبانی از هکرها از نظر ویژگیها و کارایی به سرعت توسعه یافتهاند.
آدریان هیا، مدیر کسپرسکی آسیا و ژاپن (APJ)، گفت که هوش مصنوعی تاریک نقش بزرگی در رشد سریع بدافزارها ایفا میکند. دادههای کسپرسکی نشان میدهد که روزانه نزدیک به نیم میلیون بدافزار ایجاد میشود.
آقای هیا گفت: «هوش مصنوعی تاریک مانند وب تاریک است - سمت تاریک وبی که ما هر روز از آن استفاده میکنیم.»
سرگئی لوژکین، رئیس تیم تحقیق و تحلیل جهانی کسپرسکی (GReAT) برای آسیا -اقیانوسیه (APAC) و خاورمیانه، آفریقا، ترکیه (META)، گفت که هوش مصنوعی تاریک کاملاً با چتباتهای هوش مصنوعی مرسوم مانند ChatGPT یا Gemini متفاوت است.
هوش مصنوعی که کاربران با آن آشنا هستند، برای کمک به کاربران و انجام وظایف مشروع ایجاد شده است و حتی اگر به آنها دستور داده شود که بدافزار ایجاد کنند یا فعالیتهای غیرقانونی انجام دهند، کاربران در رسیدن به اهداف خود با مشکل مواجه خواهند شد.
در همین حال، آقای لوژکین گفت، هوش مصنوعی تاریک «در واقع LLM یا چتباتهایی هستند که صرفاً برای انجام فعالیتهای مخرب در فضای مجازی ایجاد شدهاند.» این هوشهای مصنوعی برای ایجاد بدافزار، محتوای فیشینگ یا حتی یک چارچوب کامل برای استفاده مجرمان سایبری جهت کلاهبرداری آموزش دیدهاند.
سیستم هوش مصنوعی مخفی فقط برای هکرهای معتبر
این سیستمها که آقای لوژکین آنها را Black Hat GPT یا «کلاه سیاه GPT» مینامد، از سال ۲۰۲۳ وجود داشتهاند. نمایندگان کسپرسکی گفتند که در آن زمان، هوش مصنوعی بسیار ابتدایی بود، کد بسیار بدی ایجاد میکرد و میتوانست بلافاصله شناسایی شود.
با این حال، اخیراً سیستمهای GPT کلاه سیاه کاملتر شدهاند و قادر به ارائه عملکردهای بسیاری هستند، از ایجاد بدافزار، محتوای جعلی گرفته تا جعل صدا و ویدیو . برخی از نامهای آنها عبارتند از WormGPT، DarkBard یا FraudGPT.
![]() |
سرگئی لوژکین، محقق کسپرسکی، هشدار میدهد که کیفیت هوش مصنوعی تاریک در حال بهتر شدن و بهتر شدن است. عکس: مین خوی. |
یکی از نگرانکنندهترین کشفیات کسپرسکی، وجود سیستمهای خصوصی هوش مصنوعی تاریک بود که فقط در دسترس مجرمان سایبری معتبر قرار دارند. برای دسترسی به این سیستمهای خصوصی هوش مصنوعی، هکرها باید در انجمنهای زیرزمینی شهرت کسب کنند.
متخصص کسپرسکی گفت: «شما فقط در صورتی میتوانید به این نوع سیستمها دسترسی داشته باشید که مورد اعتماد باشید. برای دسترسی به این دستیارها باید در انجمنهای زیرزمینی شهرت کسب کنید.»
لوژکین گفت کسپرسکی یک واحد «اطلاعات ردپای دیجیتال» دارد که سالها صرف نفوذ به انجمنهای زیرزمینی و نظارت و ردیابی فعالیتها میکند. هنگامی که این شرکت به سیستمهای جدید دسترسی پیدا میکند، همچنان زمان زیادی را صرف درک نحوه استفاده از هوش مصنوعی تاریک، عملکردها و اثربخشی آن میکند.
هوش مصنوعی تاریک قویتر میشود
هوش مصنوعی تاریک در حال تبدیل شدن به ابزاری مؤثر برای هکرهای ماهر است. برای کسانی که فقط دانش برنامهنویسی پایه دارند، درخواست از یک تولیدکننده باجافزار ممکن است فقط نرمافزاری ایجاد کند که به راحتی توسط آنتیویروس قابل شناسایی باشد. با این حال، برای هکرهای ماهر و باتجربه، هوش مصنوعی تاریک میتواند بهرهوری کدنویسی را افزایش داده و بدافزارهای جدیدی ایجاد کند.
آقای لوژکین در مصاحبه با Tri Thuc - Znews گفت: «این کیفیت به هر پلتفرم یا هوش مصنوعی تاریک بستگی زیادی دارد. برخی کد با کیفیت بسیار پایینی تولید میکنند، اما ابزارهایی نیز وجود دارند که میتوانند به امتیاز ۷-۸ از ۱۰ برسند.»
یک مثال، توانایی ایجاد کد چندریختی است. پیش از این، وقتی یک قطعه کد مخرب توسط آنتیویروس شناسایی میشد، هکرها مجبور بودند زمان زیادی را صرف تغییر کد کنند. اکنون، هوش مصنوعی تاریک میتواند این کار را «تقریباً فوراً» انجام دهد تا نسخهای ایجاد کند که تشخیص آن دشوارتر باشد.
علاوه بر این، LLM های تاریک در حملات فیشینگ، مانع زبانی را از بین میبرند. کارشناسان کسپرسکی میگویند نسل جدید ایمیلهای فیشینگ به دلیل انگلیسی تقریباً بینقص آنها که حتی میتواند «دقیقاً شبیه صدای مدیرعامل باشد» دشوارتر قابل تشخیص است.
![]() |
برخی از سیستمهای هوش مصنوعی تاریک «همهکاره» میتوانند کد تولید کنند، جعل هویت صوتی را ادغام کنند و ایمیلهای فیشینگ ارسال کنند. عکس: کسپرسکی. |
توانایی ایجاد صداها و تصاویر جعلی توسط سیستم تخصصی هوش مصنوعی تاریک نیز به طور فزایندهای در حال پیشرفت است. آقای لوژکین حتی گفت که به لطف تجربهاش به عنوان یک کارمند امنیتی، «دیگر به تماسهای ویدیویی اعتقادی ندارد».
با این حال، کارشناسان کسپرسکی همچنین گفتند که کاربران هنوز هم میتوانند از طریق رفتار شخصی، عادات گفتاری و برخی ویژگیهای منحصر به فرد، یک تماس کلاهبرداری را تشخیص دهند.
این محقق امنیتی به Tri Thuc – Znews گفت: «جعل این ویژگیها دشوار است، بنابراین سعی کنید مستقیماً با شخصی که فکر میکنید جعلی است تماس بگیرید.»
«مسابقه تسلیحاتی هوش مصنوعی»
توسعه هوش مصنوعی تاریک، یک مسابقه تسلیحاتی فناوری بین مجرمان سایبری و متخصصان امنیت سایبری ایجاد کرده است. لوژکین اذعان میکند: «من شخصاً اکنون از هوش مصنوعی برای همه چیز استفاده میکنم - تحقیق، برنامهنویسی، مهندسی معکوس. بهرهوری من امسال 10 تا 20 برابر بیشتر از قبل است.»
او هشدار داد: «اگر در حالی که آدمهای بد از هوش مصنوعی برای حمله استفاده میکنند، شما از هوش مصنوعی برای ایجاد یک مکانیسم دفاعی استفاده نکنید، بازنده خواهید بود. این آغاز مسابقهای بین آدمهای خوب و آدمهای بد با استفاده از هوش مصنوعی است.»
![]() |
آدریان هیا، مدیر Kaspersky APJ، گفت که هوش مصنوعی تاریک به ایجاد سریعتر بدافزارها کمک میکند. عکس: مین خوی. |
گوگل گزارش داد که بیش از 20 فعالیت مخرب از گروههای تحت حمایت دولت را که سعی در استفاده از ChatGPT برای ایجاد بدافزار و برنامهریزی حملات داشتند، مسدود کرده است. در سال 2024، آنها با استفاده از مدلهای هوش مصنوعی، 40 گروه APT تحت حمایت دولت را شناسایی کردند.
به طور خاص، چارچوبهای کاملی مانند Xanthorox نگرانکننده هستند که یک سرویس «بسته کامل» را با قیمت ۲۰۰ دلار در ماه ارائه میدهند و تولید صدا، ایمیلهای فیشینگ و سایر ابزارهای حمله را در یک رابط کاربری آسان ادغام میکنند.
کارشناسان کسپرسکی هشدار میدهند که هوش مصنوعی تاریک هنوز در مراحل ابتدایی خود است. آدریان هیا پیشبینی میکند که در چند سال آینده هزینه استفاده از آن بسیار ارزانتر خواهد شد و هنوز مشخص نیست که تا چه حد توسعه خواهد یافت.
آقای لوژکین اظهار داشت: «اما چیزی که کاملاً از آن مطمئنم این است که ما آماده خواهیم بود، زیرا ما هم همین کار را انجام میدهیم، اما از طرف مقابل.»
منبع: https://znews.vn/moi-nguy-khi-toi-pham-so-huu-ai-den-post1574400.html









نظر (0)