حمله از هر گوشه
گوگل محصول هوش مصنوعی (AI) جدیدی به نام «Gemini Nano Banana» عرضه کرده است که یک هوش مصنوعی با زبانهای بزرگ (LLM) با قابلیت نوشتن و استدلال نیست، بلکه یک هوش مصنوعی متخصص در ویرایش عکس است... بسیاری از کاربران از این ابزار هیجانزده هستند، اما اثرات مضر زیادی نیز به همراه دارد.

نگوین هونگ فوک، مدیر علمی Conductify AI، گفت: «این مانند یک «پسرفت» در فناوری و اخلاق هوش مصنوعی است.» آقای فوک گفت: «Gemini Nano Banana توانایی ویرایش موثر عکسها را دارد. اما عدم سانسور گوگل در Gemini Nano Banana، که موانع و مکانیسمهای محدودکننده را از بین میبرد، به این هوش مصنوعی اجازه میدهد تصاویری ایجاد کند که بسیار شبیه به افراد مشهور، تصاویر سکسی، تصاویر حساس هستند...».
به گفته آقای نگوین هونگ فوک، این توانایی، جمینی نانو موز را به ابزاری برای ایجاد تصاویر جعلی آنقدر واقعی تبدیل میکند که حتی متخصصان هوش مصنوعی نیز نمیتوانند آنها را تشخیص دهند و این امر منجر به خطرات جدید کلاهبرداری و خطرات امنیت سایبری میشود، مانند ایجاد عکس با سیاستمداران و سیاستمداران مشهور برای انتشار اطلاعات جعلی، حتی افرادی که عکسهایشان توسط هوش مصنوعی ویرایش شده و در شبکههای اجتماعی بدنام میشوند...
علاوه بر این، با وجود دهها ابزار هوش مصنوعی ویرایش عکس دیگر که به صورت آنلاین «موج» ایجاد میکنند، کلاهبرداری دیپفیک پایانی ندارد. آمار سازمانهای امنیتی نشان میدهد که فناوری دیپفیک کمپینهای کلاهبرداری ایجاد میکند که افراد باارزش، به ویژه رهبران تجاری را هدف قرار میدهد. در سال ۲۰۲۴، ۱۴۰،۰۰۰ تا ۱۵۰،۰۰۰ مورد در سطح جهان وجود داشته است که ۷۵٪ آنها مدیران عامل و رهبران ارشد را هدف قرار دادهاند... دیپفیک میتواند ضررهای اقتصادی جهانی را تا ۳۲٪، حدود ۴۰ میلیارد دلار در سال تا سال ۲۰۲۷ افزایش دهد.
اخیراً، شرکت هوش مصنوعی آنتروپیک یک کمپین حمله سایبری انجام شده توسط هکرهای خارجی را شناسایی و از آن جلوگیری کرده است، که در آن برای اولین بار استفاده از هوش مصنوعی برای هماهنگی فعالیتهای حمله خودکار ثبت شده است. به طور خاص، هکرها از سیستمهای هوش مصنوعی برای برنامهریزی، هدایت و استقرار فعالیتهای نفوذ استفاده کردهاند - یک تحول "نگرانکننده"، با خطر گسترش مقیاس و سرعت کمپینهای حمله سایبری...
آقای نگو مین هیو، مدیر سازمان مبارزه با کلاهبرداری انجمن ملی امنیت سایبری، اظهار داشت که سرعت کلاهبرداری این ابزار مبتنی بر هوش مصنوعی حدود ۲۰ برابر بیشتر از استفاده از افراد واقعی است. افراد سناریوی کلاهبرداری را برای تجزیه و تحلیل به هوش مصنوعی میدهند و بلافاصله سیستم به طور خودکار با قربانیان چت میکند. هوش مصنوعی میتواند از دادههای اولیه، خواستههای قربانی را بداند و در لحظه با او چت کند. پیچیدهترین ترفند، حمله «مرد میانی» است، به این معنی که وقتی کاربر احراز هویت ویدیویی مانند چرخاندن صورت، خواندن دستورات را انجام میدهد، هکر در وسط قرار میگیرد تا در دادههای منتقل شده اختلال ایجاد کند. در آن زمان، مجرمان سایبری ویدیوهای دیپفیک آماده را وارد میکنند و جریان دادههای واقعی کاربر را جایگزین میکنند تا احراز هویت را دور بزنند... با روش فوق، سیستمهای امنیتی بانکها و موسسات مالی نیز در معرض خطر کلاهبرداری قرار میگیرند.
مدیریت بهتر دادهها
با افزایش محبوبیت هوش مصنوعی، خطرات امنیتی و حریم خصوصی نیز به طور قابل توجهی افزایش مییابد. دادههای ذخیره شده و پردازش شده روی سرورهای از راه دور به هدفی جذاب برای هکرها و سازمانهای مجرمان سایبری تبدیل خواهند شد. طبق دادههای انجمن ملی امنیت سایبری، تنها در سه ماهه دوم سال 2025، تعداد حملات سایبری با استفاده از هوش مصنوعی 62 درصد افزایش یافته و باعث خسارات جهانی تا 18 میلیارد دلار شده است...
کارشناسان میگویند حفاظت از دادهها حیاتی است. با این حال، جمعآوری و فروش دادهها هنوز هم آشکارا در بسیاری از پلتفرمهای «بازار تاریک» با قیمتی در حدود ۲۰ دلار در ماه انجام میشود. مجرمان سایبری میتوانند از ابزارهایی استفاده کنند که مشابه مدلهای زبانی عمل میکنند اما برای اهداف مجرمانه سفارشی شدهاند. این ابزارها قادر به ایجاد کدهای مخرب و حتی دور زدن نرمافزارهای آنتیویروس هستند.
در ویتنام، فرمان شماره 13/2023/ND-CP (که از 17 آوریل 2023 لازمالاجرا است) حفاظت از دادههای شخصی را تنظیم میکند. علاوه بر این، انتظار میرود قانون حفاظت از دادههای شخصی از اول ژانویه 2026 لازمالاجرا شود و سازوکار قانونی قویتری را برای پاسخگویی به خطر نشت و سوءاستفاده از دادههای شخصی ایجاد کند. با این حال، طبق گفته انجمن ملی امنیت سایبری، اثربخشی اجرای قانون هنوز باید در هر سه رکن تقویت شود: افزایش آگاهی مردم، افزایش مسئولیتپذیری کسبوکارها و بهبود ظرفیت مدیریت آژانسهای مدیریتی. علاوه بر اقدامات فنی، هر فرد باید توانایی شناسایی علائم غیرمعمول و مشکوک را ایجاد کند و به طور پیشگیرانه از خود در برابر تعاملات دیجیتال خطرناک محافظت کند...
شرکت امنیتی کسپرسکی نسبت به سوءاستفاده از هوش مصنوعی تاریک (اصطلاحی که برای توصیف استقرار مدلهای زبانی بزرگ (LLM) که خارج از کنترلهای امنیتی استاندارد عمل میکنند و اغلب امکان اقداماتی مانند کلاهبرداری، دستکاری، حملات سایبری یا سوءاستفاده از دادهها را فراهم میکنند) هشدار داده است. سازمانها و افراد باید به دلیل ظهور هوش مصنوعی تاریک در منطقه آسیا و اقیانوسیه، برای حملات سایبری که به طور فزایندهای پیچیده و دشوار برای تشخیص هستند، آماده شوند.
سرگئی لوژکین، رئیس تیم تحقیق و تحلیل جهانی (GReAT) که مسئول منطقه خاورمیانه، ترکیه، آفریقا و آسیا-اقیانوسیه در کسپرسکی است، اظهار داشت که یکی از مظاهر سوءاستفاده از هوش مصنوعی امروزه ظهور مدلهای GPT کلاه سیاه است. اینها مدلهای هوش مصنوعی هستند که بهطور ویژه برای اهداف غیراخلاقی و غیرقانونی مانند ایجاد بدافزار، تهیه ایمیلهای فیشینگ روان و بسیار متقاعدکننده برای انجام حملات در مقیاس بزرگ، ایجاد صداها و ویدیوهای دیپفیک و حتی پشتیبانی از عملیات حمله شبیهسازی شده توسعه داده یا تنظیم شدهاند...
کارشناسان کسپرسکی توصیه میکنند که افراد و کسبوکارها از راهحلهای امنیتی نسل بعدی برای شناسایی بدافزارهای تولید شده توسط هوش مصنوعی استفاده کنند و حفاظت از دادهها را به عنوان یک هدف مهم شناسایی کنند. برای کسبوکارها، لازم است از ابزارهای نظارتی بلادرنگ برای نظارت بر سوءاستفادههای مبتنی بر هوش مصنوعی استفاده شود؛ کنترل دسترسی و آموزش کارکنان تقویت شود تا پدیده هوش مصنوعی در تاریکی و همچنین خطر نشت دادهها محدود شود؛ یک مرکز عملیات امنیت سایبری برای نظارت بر تهدیدات و پاسخ سریع به حوادث راهاندازی شود...
منبع: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






نظر (0)