با افزایش دسترسی به هوش مصنوعی و استفاده افراد و کسبوکارهای بیشتر از آن از طریق ابزارهای رایج، هکرها میتوانند همزمان حملات را خودکار کنند، فرآیندهای عملیاتی را تسریع بخشند و کمپینهای پیچیدهتری را برای دستیابی به اهداف غیرقانونی خود به کار گیرند.
برخی از روشهای حملهای که کسپرسکی مشاهده کرده است، به شرح زیر است: ChatGPT میتواند برای توسعه بدافزار و اجرای خودکار حملات به چندین قربانی استفاده شود؛ برنامههای هوش مصنوعی به دادههای کاربر در تلفنهای هوشمند نفوذ میکنند و از طریق تجزیه و تحلیل دادههای حساس، مهاجمان میتوانند پیامها، رمزهای عبور و کدهای بانکی را به طور کامل از قربانیان "سرقت" کنند؛ الگوریتمهای هوش ازدحامی به شبکههای کامپیوتری کمک میکنند تا به طور خودکار (bonet) شبکههای مخربی را که توسط راهحلهای امنیتی حذف شدهاند، بازیابی کنند.
تحقیقات کسپرسکی در مورد استفاده از هوش مصنوعی برای شکستن رمزهای عبور نشان میدهد که اکثر رمزهای عبور با استفاده از الگوریتمهای هشینگ مانند MD5 و SHA رمزگذاری میشوند. بنابراین، یک عملیات ساده میتواند یک رمز عبور را به یک خط متن رمزگذاری شده تبدیل کند، اما معکوس کردن کل فرآیند یک چالش مهم است.
از طریق هوش مصنوعی، بازیگران مخرب میتوانند از محتوای جعلی، شامل متن، تصویر، صدا و ویدیو ، برای راهاندازی حملات غیرفنی سوءاستفاده کنند. مدلهای زبانی بزرگ مانند ChatGPT-4o برای ایجاد سناریوها و پیامهای فیشینگ بسیار پیچیده استفاده میشوند. هوش مصنوعی با غلبه بر موانع زبانی، میتواند صرفاً بر اساس اطلاعات رسانههای اجتماعی، یک ایمیل ظاهراً معتبر بنویسد. این فناوری حتی میتواند سبک نوشتاری قربانی را تقلید کند و تشخیص کلاهبرداری را دشوارتر سازد.
در همین حال، فناوری دیپفیک (Deepfake) با وجود اینکه قبلاً به عنوان محصول تحقیقات علمی در نظر گرفته میشد، به عنوان یک «مشکل» در امنیت سایبری ظهور کرده است. جعل هویت افراد مشهور برای کسب سود مالی رایجترین روش است؛ علاوه بر این، کلاهبرداران از دیپفیک برای سرقت حسابها و برقراری تماسهای جعلی با دوستان و اقوام قربانیان برای اخاذی پول استفاده میکنند.
علاوه بر سوءاستفاده از فناوری هوش مصنوعی برای فعالیتهای غیرقانونی، عوامل مخرب میتوانند به الگوریتمهای هوش مصنوعی نیز حمله کنند. این شامل حملات "تزریق سریع" میشود که در آن دستورات مخرب به مدلهای زبانی بزرگ تزریق میشوند، حتی برخلاف قوانین محدود شده قبلی؛ و حملات خصمانه، که در آن فیلدهای اطلاعات پنهان به تصاویر یا صدا اضافه میشوند تا بر قابلیتهای طبقهبندی تصویر سیستمهای یادگیری ماشین تأثیر بگذارند.
هوش مصنوعی به طور فزایندهای در تمام جنبههای زندگی بشر، از Apple Intelligence و Google Gemini گرفته تا Microsoft Copilot، ادغام میشود. بنابراین، پرداختن به آسیبپذیریهای هوش مصنوعی باید در اولویت اصلی باشد. کسپرسکی سالهاست که از فناوری هوش مصنوعی برای محافظت از مشتریان و شرکای خود استفاده میکند و به طور مداوم در جستجوی آسیبپذیریها در سیستمهای هوش مصنوعی برای افزایش تابآوری آنها و تحقیق فعال در مورد تکنیکهای حمله سایبری برای ارائه محافظت قابل اعتماد در برابر حملات مبتنی بر هوش مصنوعی است.
کیم تان
منبع: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html






نظر (0)