نظر شما در مورد روند استفاده هکرها از هوش مصنوعی برای انجام حملات سایبری و کلاهبرداری چیست؟

دکتر نگوین توان خانگ: طبق شاخص اطلاعات تهدید X-Force شرکت IBM در سال 2024، آسیا و اقیانوسیه ، از جمله ویتنام، منطقه‌ای است که بیشترین حملات سایبری را در جهان در سال 2023 متحمل خواهد شد. از این میان، تولید، صنعتی است که بیشترین آسیب را از حملات سایبری می‌بیند.

روش اصلی افراد شرور هنوز حملات فیشینگ است که افراد آسیب‌پذیر را هدف قرار می‌دهند و از آسیب‌پذیری‌ها برای نصب بدافزار سوءاستفاده می‌کنند. علاوه بر این، روند نوظهور در سال 2024 حملات سایبری با استفاده از هوش مصنوعی (AI) است.

گزارش وایرد اشاره می‌کند که بسیاری از افراد شرور از هوش مصنوعی مولد برای کمک به هدایت هک‌ها، ایجاد چت‌بات‌های کلاهبرداری یا ایجاد تصاویر و ویدیوهای دیپ‌فیک که چهره و صدای دیگران را تقلید می‌کنند، استفاده می‌کنند.

با این حال، همراه با این روند، سیستم‌های امنیت اطلاعات نیز شروع به ادغام ویژگی‌های هوش مصنوعی، مانند واتسونکس، کرده‌اند. هوش مصنوعی می‌تواند مورد سوءاستفاده قرار گیرد، اما همچنین می‌تواند جایگزین انسان در تجزیه و تحلیل، نظارت، شناسایی اعداد، پیش‌بینی سناریوهای حمله شود و در نتیجه قابلیت‌های دفاعی را بهبود بخشد و خطرات امنیت اطلاعات را به حداقل برساند.

W-nguyen-tuan-khang-ibm-1.jpg
کارشناس امنیت سایبری نگوین تون کانگ. عکس: Trong Dat

کلاهبرداری‌های دیپ‌فیک روز به روز رایج‌تر می‌شوند. با توسعه سریع هوش مصنوعی، این حملات در آینده چقدر خطرناک خواهند بود؟

دکتر نگوین توان خانگ: اساساً، دیپ‌فیک فناوری‌ای است که به هکرها کمک می‌کند هویت‌های دیجیتالی جعلی ایجاد کنند و از این طریق خود را به جای دیگران جا بزنند. دیپ‌فیک یک مشکل خطرناک خواهد بود زیرا این فناوری روز به روز پیچیده‌تر می‌شود.

برای مبارزه با دیپ‌فیک، اولین کاری که باید انجام شود این است که مشخص شود آیا تصویر یا صدای یک فرد توسط هوش مصنوعی تولید شده است یا خیر. در حال حاضر هیچ ابزار جهانی وجود ندارد که بتواند دیپ‌فیک را فوراً تشخیص دهد زیرا مهاجمان دائماً در حال توسعه مدل‌های جدید هستند.

علاوه بر تشخیص دیپ‌فیک، تکنیک دیگری برای مقابله با آن وجود دارد که استفاده از فناوری برای تحلیل رفتار است. از دیدگاه سازمانی و تجاری، توسعه سیستمی که هر دو این تکنیک‌ها را با هم ترکیب کند، ضروری است.

اخیراً حملات سایبری رخ داده است که در آن هکرها مخفیانه بدافزار را در سیستم شرکت جاسازی کرده‌اند. این بدافزار در کمین نشسته و تمام فعالیت‌ها را تجزیه و تحلیل می‌کند و در نتیجه یک هویت جعلی برای انجام مقاصد مخرب ایجاد می‌کند. با توسعه فناوری دیپ‌فیک، همراه با توانایی ایجاد ویدیوهای ساخته شده توسط هوش مصنوعی، این نوع حملات در آینده بسیار خطرناک‌تر خواهند بود.

با تشدید حملات سایبری دیپ‌فیک، چگونه می‌توانیم از سالمندان، کودکان و سایر گروه‌های آسیب‌پذیر در برابر کلاهبرداران محافظت کنیم؟

دکتر نگوین توان خانگ: افراد مسن و کودکان اغلب توسط کلاهبردارانی که از تکنیکی به نام مهندسی اجتماعی استفاده می‌کنند، مورد حمله قرار می‌گیرند. این اصطلاحی است که حملات را از طریق دستکاری رفتار انسان توصیف می‌کند.

هکرها اکنون می‌توانند از هوش مصنوعی در ترکیب با جمع‌آوری، کاوش و تحلیل داده‌ها برای شناسایی افرادی که احتمالاً مورد کلاهبرداری قرار می‌گیرند استفاده کنند و سپس راه‌هایی برای حمله پیدا کنند. علاوه بر افزایش آگاهی در جامعه، باید بپذیریم که موقعیت‌هایی که کاربران مورد کلاهبرداری قرار می‌گیرند، رخ خواهد داد و باید از فناوری برای شناسایی و جلوگیری از آن استفاده کنیم.

W-آنلاین-کلاهبرداری-1.jpg
هشدار در مورد موارد جعل هویت مأموران پلیس برای کلاهبرداری از طریق انتقال وجه توسط پلیس بخش تان لونگ ( هانوی ). عکس: ترونگ دات

اخیراً موردی پیش آمد که یک کارمند بانک به پیرزنی که برای انتقال پول آمده بود مشکوک شد و نشانه‌هایی از کلاهبرداری در او مشاهده کرد. این شخص بلافاصله تراکنش را متوقف کرد و آن را به مقامات گزارش داد. سیستم‌های فناوری اطلاعات بانک‌ها اکنون دارای فناوری‌هایی هستند که می‌توانند جایگزین انسان‌ها در چنین وظایفی شوند.

نقش فناوری این است که حتی اگر فرستنده به عنوان شخص واقعی شناخته شود، سیستم همچنان در صورت مشکوک شدن به دستکاری تراکنش توسط شخص دیگری، انتقال را متوقف می‌کند. چنین ابزارهایی، سیستم‌های پیشگیری از کلاهبرداری نامیده می‌شوند.

آیا وقت آن رسیده است که ویتنام تحریم‌هایی برای مدیریت هوش مصنوعی داشته باشد و تحقیق، توسعه و استفاده از هوش مصنوعی را در یک چارچوب قرار دهد؟

دکتر نگوین توان خانگ: موضوع مدیریت هوش مصنوعی مدت‌هاست که مورد بحث قرار گرفته است، با این حال، هنوز هم بحث‌های زیادی در مورد آن وجود دارد. به عنوان مثال، پارکینگ منطقه من دارای یک سیستم هوش مصنوعی برای تشخیص پلاک خودرو است، اما هنوز هم سرقت‌هایی رخ می‌داد. در آن زمان، بحث بر سر این بود که تقصیر کیست. آیا باید صاحب آپارتمان، نگهبان امنیتی یا توسعه‌دهنده سیستم هوش مصنوعی مسئول باشند؟

از آن زمان، این ساختمان قوانین خود را تغییر داده و اعلام کرده است که ساکنان می‌توانند برای راحتی بیشتر از هوش مصنوعی برای تشخیص پلاک خودرو استفاده کنند، اما باید خطرات آن را نیز بپذیرند. کسانی که موافق باشند می‌توانند از درهای اتوماتیک استفاده کنند، و کسانی که موافق نباشند باید ماشین‌های خود را به روش قدیمی پارک کنند. ما باید چنین تحریم‌هایی را اعمال کنیم.

به همین ترتیب، IBM زمانی یک سیستم هوش مصنوعی برای کمک به پیشگیری از سرطان توسعه داد. وقتی سیستم دارو تجویز کرد، اما بیمار آن را مصرف کرد اما همچنان نتوانست نجات یابد، آیا تقصیر پزشک است یا تقصیر هوش مصنوعی؟

من فکر می‌کنم مقررات هوش مصنوعی باید خاص باشد و به وضوح بیان کند که هنگام توسعه برنامه‌های کاربردی هوش مصنوعی چه کاری می‌توان و چه کاری نمی‌توان انجام داد. برای امن‌تر کردن جهان، اساسی‌ترین مقرراتی که می‌توانیم انجام دهیم این است که انتقال پول‌های بزرگ را ملزم به شناسایی بیومتریک کنیم. در چنین شرایطی، افرادی که اطلاعات هویتی خود را از دست می‌دهند، می‌توانند کاملاً از دست دادن پول جلوگیری کنند.

متشکرم.

کلاهبرداری‌های دیپ‌فیک، جعل چهره و صدا در سال ۲۰۲۴ افزایش خواهد یافت . طبق پیش‌بینی VSEC، حملات سایبری با استفاده از هوش مصنوعی، از جمله کلاهبرداری‌های دیپ‌فیک برای جعل چهره و صدا، در سال ۲۰۲۴ افزایش خواهد یافت.