ارزیابی شما از روند «مسلح کردن» هوش مصنوعی توسط هکرها برای انجام حملات سایبری و کلاهبرداری چیست؟

دکتر نگوین توان خانگ: طبق گزارش شاخص اطلاعات تهدید X-Force شرکت IBM در سال 2024، منطقه آسیا و اقیانوسیه، از جمله ویتنام، در میان سه منطقه برتر جهان برای حملات سایبری در سال 2023 قرار داشت. بخش تولید، بخشی بود که بیشترین آسیب را از این حوادث حمله سایبری دید.

تاکتیک اصلی مورد استفاده توسط عوامل مخرب، حملات فیشینگ است که افراد آسیب‌پذیر را هدف قرار می‌دهد و از آسیب‌پذیری‌ها برای نصب بدافزار سوءاستفاده می‌کند. علاوه بر این، روند جدیدی که در سال 2024 ظهور می‌کند، حملات سایبری با استفاده از هوش مصنوعی (AI) است.

گزارش Wired نشان می‌دهد که بسیاری از بازیگران مخرب از محتوای تولید شده توسط هوش مصنوعی برای هدایت تلاش‌های هک، ایجاد چت‌بات‌های جعلی یا تولید تصاویر و ویدیوهای جعلی که از چهره و صدای دیگران با استفاده از فناوری Deepfake تقلید می‌کنند، استفاده می‌کنند.

با این حال، همراه با این روند، سیستم‌های امنیت اطلاعات نیز شروع به ادغام ویژگی‌های هوش مصنوعی، مانند WatsonX، کرده‌اند. هوش مصنوعی می‌تواند مورد بهره‌برداری قرار گیرد، اما همچنین می‌تواند جایگزین انسان در تجزیه و تحلیل، نظارت، شناسایی دیجیتال و پیش‌بینی سناریوهای حمله شود و در نتیجه قابلیت‌های دفاعی را افزایش داده و خطرات امنیت اطلاعات را به حداقل برساند.

W-nguyen-tuan-khang-ibm-1.jpg
کارشناس امنیت سایبری نگوین تون کانگ. عکس: Trong Dat

کلاهبرداری‌های دیپ‌فیک به طور فزاینده‌ای رایج می‌شوند. با توسعه سریع هوش مصنوعی، این حملات در آینده چقدر خطرناک خواهند شد؟

دکتر نگوین توان خانگ: اساساً، دیپ‌فیک فناوری‌ای است که به هکرها اجازه می‌دهد هویت‌های دیجیتالی جعلی ایجاد کنند و از این طریق خود را به جای دیگران جا بزنند. دیپ‌فیک یک مشکل خطرناک خواهد بود زیرا این فناوری به طور فزاینده‌ای پیچیده می‌شود.

برای مبارزه با دیپ‌فیک، اولین قدم این است که مشخص شود آیا تصویر یا صدای کسی توسط هوش مصنوعی ساخته شده است یا خیر. در حال حاضر، هیچ ابزار جهانی برای تشخیص فوری دیپ‌فیک وجود ندارد زیرا مهاجمان دائماً در حال توسعه مدل‌های جدید هستند.

علاوه بر شناسایی دیپ‌فیک، تکنیک دیگری برای مبارزه با آنها استفاده از فناوری برای تحلیل رفتار است. از دیدگاه سازمانی یا تجاری، توسعه سیستمی که هر دو تکنیک را با هم ترکیب کند، ضروری است.

در سال‌های اخیر، حملات سایبری رخ داده است که در آن هکرها مخفیانه بدافزار را در سیستم یک شرکت پرورش می‌دهند. این بدافزار غیرفعال می‌ماند، تمام فعالیت‌ها را تجزیه و تحلیل می‌کند و یک هویت جعلی برای انجام مقاصد مخرب ایجاد می‌کند. با توسعه فناوری دیپ‌فیک، همراه با قابلیت‌های ایجاد ویدیوی مبتنی بر هوش مصنوعی، این نوع حملات در آینده حتی خطرناک‌تر نیز خواهند شد.

با افزایش حملات سایبری دیپ‌فیک، چگونه می‌توانیم از سالمندان، کودکان و سایر گروه‌های آسیب‌پذیر در برابر کلاهبرداران محافظت کنیم؟

دکتر نگوین توان خانگ: سالمندان و کودکان اغلب توسط کلاهبردارانی که از تکنیکی به نام مهندسی اجتماعی استفاده می‌کنند، هدف قرار می‌گیرند. این اصطلاح حملاتی را توصیف می‌کند که رفتار انسان را دستکاری می‌کنند.

هکرها اکنون می‌توانند از هوش مصنوعی در کنار جمع‌آوری، بهره‌برداری و تحلیل داده‌ها برای شناسایی افرادی که به شدت مستعد کلاهبرداری هستند استفاده کنند و سپس آنها را هدف قرار دهند. علاوه بر افزایش آگاهی عمومی، باید بپذیریم که موقعیت‌هایی که در آن کاربران مورد کلاهبرداری قرار می‌گیرند، رخ خواهد داد و ما باید از فناوری برای شناسایی و جلوگیری از چنین حوادثی استفاده کنیم.

W-lua-dao-truc-tuyen-1.jpg
هشدار در مورد موارد کلاهبرداری که با جعل هویت مأموران اجرای قانون، مردم را برای انتقال پول فریب می‌دهند، صادر شده توسط پلیس بخش تان لونگ ( هانوی ). عکس: ترونگ دات

اخیراً، حادثه‌ای رخ داد که در آن یک کارمند بانک هنگام انتقال وجه، به کلاهبرداری از یک زن مسن مشکوک شد. این کارمند فوراً مداخله کرد و حادثه را به مقامات گزارش داد. سیستم‌های فناوری اطلاعات بانک‌ها اکنون به فناوری نیاز دارند تا جایگزین دخالت انسان در چنین مواردی شود.

نقش فناوری این است که حتی اگر فرستنده به عنوان مالک قانونی شناخته شود، سیستم در صورت مشکوک شدن به دستکاری توسط شخص دیگری، همچنان برای مسدود کردن تراکنش اقدام خواهد کرد. چنین ابزارهایی، سیستم‌های پیشگیری از کلاهبرداری نامیده می‌شوند.

آیا زمان آن رسیده است که ویتنام مقرراتی را برای مدیریت هوش مصنوعی اجرا کند و تحقیق، توسعه و استفاده از هوش مصنوعی را در یک چارچوب ساختاریافته قرار دهد؟

دکتر نگوین توان خانگ: موضوع تنظیم مقررات هوش مصنوعی مدت‌هاست که مورد بحث قرار گرفته است، اما هنوز نکات بحث‌برانگیز زیادی وجود دارد. به عنوان مثال، پارکینگ محله من دارای سیستم هوش مصنوعی برای تشخیص پلاک است، اما سرقت‌ها هنوز هم رخ می‌دهند. از آن زمان بحث در مورد اینکه چه کسی مقصر است آغاز شد. آیا باید مالک ساختمان، نگهبان امنیتی یا توسعه‌دهنده سیستم هوش مصنوعی مسئول شناخته شوند؟

از آن به بعد، ساختمان مقررات خود را تغییر داد و اعلام کرد که ساکنان می‌توانند برای راحتی از تشخیص پلاک خودرو با هوش مصنوعی استفاده کنند، اما باید خطرات آن را نیز بپذیرند. کسانی که موافق بودند می‌توانستند از دروازه‌های اتوماتیک استفاده کنند، در حالی که کسانی که مخالف بودند باید ماشین‌های خود را به روش قدیمی پارک می‌کردند. ما به سیستمی مانند آن نیاز داریم.

به همین ترتیب، IBM زمانی یک سیستم هوش مصنوعی برای کمک به پیشگیری از سرطان توسعه داد. وقتی سیستم دارو تجویز کرد و بیمار آن را مصرف کرد اما همچنان نتوانست نجات یابد، آیا تقصیر پزشک بود یا هوش مصنوعی؟

من فکر می‌کنم مقررات مربوط به هوش مصنوعی باید خاص باشند و به وضوح بیان کنند که هنگام توسعه برنامه‌های کاربردی هوش مصنوعی چه چیزی مجاز و چه چیزی غیرمجاز است. برای امن‌تر کردن جهان، اساسی‌ترین مقرراتی که می‌توانیم اجرا کنیم این است که انتقال پول‌های بزرگ را ملزم به تأیید بیومتریک کنیم. در چنین شرایطی، افرادی که هویتشان به خطر افتاده است، می‌توانند کاملاً از دست دادن پول خود جلوگیری کنند.

متشکرم، آقا.

پیش‌بینی می‌شود کلاهبرداری‌های دیپ‌فیک، از جمله جعل چهره و صدا، در سال ۲۰۲۴ افزایش یابد. طبق پیش‌بینی VSEC، حملات سایبری مبتنی بر هوش مصنوعی، از جمله کلاهبرداری‌های دیپ‌فیک برای جعل چهره و صدا، در سال ۲۰۲۴ افزایش خواهد یافت.