ارزیابی شما از روند «مسلح کردن» هوش مصنوعی توسط هکرها برای انجام حملات سایبری و کلاهبرداری چیست؟
دکتر نگوین توان خانگ: طبق گزارش شاخص اطلاعات تهدید X-Force شرکت IBM در سال 2024، منطقه آسیا و اقیانوسیه، از جمله ویتنام، در میان سه منطقه برتر جهان برای حملات سایبری در سال 2023 قرار داشت. بخش تولید، بخشی بود که بیشترین آسیب را از این حوادث حمله سایبری دید.
تاکتیک اصلی مورد استفاده توسط عوامل مخرب، حملات فیشینگ است که افراد آسیبپذیر را هدف قرار میدهد و از آسیبپذیریها برای نصب بدافزار سوءاستفاده میکند. علاوه بر این، روند جدیدی که در سال 2024 ظهور میکند، حملات سایبری با استفاده از هوش مصنوعی (AI) است.
گزارش Wired نشان میدهد که بسیاری از بازیگران مخرب از محتوای تولید شده توسط هوش مصنوعی برای هدایت تلاشهای هک، ایجاد چتباتهای جعلی یا تولید تصاویر و ویدیوهای جعلی که از چهره و صدای دیگران با استفاده از فناوری Deepfake تقلید میکنند، استفاده میکنند.
با این حال، همراه با این روند، سیستمهای امنیت اطلاعات نیز شروع به ادغام ویژگیهای هوش مصنوعی، مانند WatsonX، کردهاند. هوش مصنوعی میتواند مورد بهرهبرداری قرار گیرد، اما همچنین میتواند جایگزین انسان در تجزیه و تحلیل، نظارت، شناسایی دیجیتال و پیشبینی سناریوهای حمله شود و در نتیجه قابلیتهای دفاعی را افزایش داده و خطرات امنیت اطلاعات را به حداقل برساند.
کلاهبرداریهای دیپفیک به طور فزایندهای رایج میشوند. با توسعه سریع هوش مصنوعی، این حملات در آینده چقدر خطرناک خواهند شد؟
دکتر نگوین توان خانگ: اساساً، دیپفیک فناوریای است که به هکرها اجازه میدهد هویتهای دیجیتالی جعلی ایجاد کنند و از این طریق خود را به جای دیگران جا بزنند. دیپفیک یک مشکل خطرناک خواهد بود زیرا این فناوری به طور فزایندهای پیچیده میشود.
برای مبارزه با دیپفیک، اولین قدم این است که مشخص شود آیا تصویر یا صدای کسی توسط هوش مصنوعی ساخته شده است یا خیر. در حال حاضر، هیچ ابزار جهانی برای تشخیص فوری دیپفیک وجود ندارد زیرا مهاجمان دائماً در حال توسعه مدلهای جدید هستند.
علاوه بر شناسایی دیپفیک، تکنیک دیگری برای مبارزه با آنها استفاده از فناوری برای تحلیل رفتار است. از دیدگاه سازمانی یا تجاری، توسعه سیستمی که هر دو تکنیک را با هم ترکیب کند، ضروری است.
در سالهای اخیر، حملات سایبری رخ داده است که در آن هکرها مخفیانه بدافزار را در سیستم یک شرکت پرورش میدهند. این بدافزار غیرفعال میماند، تمام فعالیتها را تجزیه و تحلیل میکند و یک هویت جعلی برای انجام مقاصد مخرب ایجاد میکند. با توسعه فناوری دیپفیک، همراه با قابلیتهای ایجاد ویدیوی مبتنی بر هوش مصنوعی، این نوع حملات در آینده حتی خطرناکتر نیز خواهند شد.
با افزایش حملات سایبری دیپفیک، چگونه میتوانیم از سالمندان، کودکان و سایر گروههای آسیبپذیر در برابر کلاهبرداران محافظت کنیم؟
دکتر نگوین توان خانگ: سالمندان و کودکان اغلب توسط کلاهبردارانی که از تکنیکی به نام مهندسی اجتماعی استفاده میکنند، هدف قرار میگیرند. این اصطلاح حملاتی را توصیف میکند که رفتار انسان را دستکاری میکنند.
هکرها اکنون میتوانند از هوش مصنوعی در کنار جمعآوری، بهرهبرداری و تحلیل دادهها برای شناسایی افرادی که به شدت مستعد کلاهبرداری هستند استفاده کنند و سپس آنها را هدف قرار دهند. علاوه بر افزایش آگاهی عمومی، باید بپذیریم که موقعیتهایی که در آن کاربران مورد کلاهبرداری قرار میگیرند، رخ خواهد داد و ما باید از فناوری برای شناسایی و جلوگیری از چنین حوادثی استفاده کنیم.
اخیراً، حادثهای رخ داد که در آن یک کارمند بانک هنگام انتقال وجه، به کلاهبرداری از یک زن مسن مشکوک شد. این کارمند فوراً مداخله کرد و حادثه را به مقامات گزارش داد. سیستمهای فناوری اطلاعات بانکها اکنون به فناوری نیاز دارند تا جایگزین دخالت انسان در چنین مواردی شود.
نقش فناوری این است که حتی اگر فرستنده به عنوان مالک قانونی شناخته شود، سیستم در صورت مشکوک شدن به دستکاری توسط شخص دیگری، همچنان برای مسدود کردن تراکنش اقدام خواهد کرد. چنین ابزارهایی، سیستمهای پیشگیری از کلاهبرداری نامیده میشوند.
آیا زمان آن رسیده است که ویتنام مقرراتی را برای مدیریت هوش مصنوعی اجرا کند و تحقیق، توسعه و استفاده از هوش مصنوعی را در یک چارچوب ساختاریافته قرار دهد؟
دکتر نگوین توان خانگ: موضوع تنظیم مقررات هوش مصنوعی مدتهاست که مورد بحث قرار گرفته است، اما هنوز نکات بحثبرانگیز زیادی وجود دارد. به عنوان مثال، پارکینگ محله من دارای سیستم هوش مصنوعی برای تشخیص پلاک است، اما سرقتها هنوز هم رخ میدهند. از آن زمان بحث در مورد اینکه چه کسی مقصر است آغاز شد. آیا باید مالک ساختمان، نگهبان امنیتی یا توسعهدهنده سیستم هوش مصنوعی مسئول شناخته شوند؟
از آن به بعد، ساختمان مقررات خود را تغییر داد و اعلام کرد که ساکنان میتوانند برای راحتی از تشخیص پلاک خودرو با هوش مصنوعی استفاده کنند، اما باید خطرات آن را نیز بپذیرند. کسانی که موافق بودند میتوانستند از دروازههای اتوماتیک استفاده کنند، در حالی که کسانی که مخالف بودند باید ماشینهای خود را به روش قدیمی پارک میکردند. ما به سیستمی مانند آن نیاز داریم.
به همین ترتیب، IBM زمانی یک سیستم هوش مصنوعی برای کمک به پیشگیری از سرطان توسعه داد. وقتی سیستم دارو تجویز کرد و بیمار آن را مصرف کرد اما همچنان نتوانست نجات یابد، آیا تقصیر پزشک بود یا هوش مصنوعی؟
من فکر میکنم مقررات مربوط به هوش مصنوعی باید خاص باشند و به وضوح بیان کنند که هنگام توسعه برنامههای کاربردی هوش مصنوعی چه چیزی مجاز و چه چیزی غیرمجاز است. برای امنتر کردن جهان، اساسیترین مقرراتی که میتوانیم اجرا کنیم این است که انتقال پولهای بزرگ را ملزم به تأیید بیومتریک کنیم. در چنین شرایطی، افرادی که هویتشان به خطر افتاده است، میتوانند کاملاً از دست دادن پول خود جلوگیری کنند.
متشکرم، آقا.
منبع






نظر (0)