نظر شما در مورد روند استفاده هکرها از هوش مصنوعی برای انجام حملات سایبری و کلاهبرداری چیست؟
دکتر نگوین توان خانگ: طبق شاخص اطلاعات تهدید X-Force شرکت IBM در سال 2024، آسیا و اقیانوسیه ، از جمله ویتنام، منطقهای است که بیشترین حملات سایبری را در جهان در سال 2023 متحمل خواهد شد. از این میان، تولید، صنعتی است که بیشترین آسیب را از حملات سایبری میبیند.
روش اصلی افراد شرور هنوز حملات فیشینگ است که افراد آسیبپذیر را هدف قرار میدهند و از آسیبپذیریها برای نصب بدافزار سوءاستفاده میکنند. علاوه بر این، روند نوظهور در سال 2024 حملات سایبری با استفاده از هوش مصنوعی (AI) است.
گزارش وایرد اشاره میکند که بسیاری از افراد شرور از هوش مصنوعی مولد برای کمک به هدایت هکها، ایجاد چتباتهای کلاهبرداری یا ایجاد تصاویر و ویدیوهای دیپفیک که چهره و صدای دیگران را تقلید میکنند، استفاده میکنند.
با این حال، همراه با این روند، سیستمهای امنیت اطلاعات نیز شروع به ادغام ویژگیهای هوش مصنوعی، مانند واتسونکس، کردهاند. هوش مصنوعی میتواند مورد سوءاستفاده قرار گیرد، اما همچنین میتواند جایگزین انسان در تجزیه و تحلیل، نظارت، شناسایی اعداد، پیشبینی سناریوهای حمله شود و در نتیجه قابلیتهای دفاعی را بهبود بخشد و خطرات امنیت اطلاعات را به حداقل برساند.
کلاهبرداریهای دیپفیک روز به روز رایجتر میشوند. با توسعه سریع هوش مصنوعی، این حملات در آینده چقدر خطرناک خواهند بود؟
دکتر نگوین توان خانگ: اساساً، دیپفیک فناوریای است که به هکرها کمک میکند هویتهای دیجیتالی جعلی ایجاد کنند و از این طریق خود را به جای دیگران جا بزنند. دیپفیک یک مشکل خطرناک خواهد بود زیرا این فناوری روز به روز پیچیدهتر میشود.
برای مبارزه با دیپفیک، اولین کاری که باید انجام شود این است که مشخص شود آیا تصویر یا صدای یک فرد توسط هوش مصنوعی تولید شده است یا خیر. در حال حاضر هیچ ابزار جهانی وجود ندارد که بتواند دیپفیک را فوراً تشخیص دهد زیرا مهاجمان دائماً در حال توسعه مدلهای جدید هستند.
علاوه بر تشخیص دیپفیک، تکنیک دیگری برای مقابله با آن وجود دارد که استفاده از فناوری برای تحلیل رفتار است. از دیدگاه سازمانی و تجاری، توسعه سیستمی که هر دو این تکنیکها را با هم ترکیب کند، ضروری است.
اخیراً حملات سایبری رخ داده است که در آن هکرها مخفیانه بدافزار را در سیستم شرکت جاسازی کردهاند. این بدافزار در کمین نشسته و تمام فعالیتها را تجزیه و تحلیل میکند و در نتیجه یک هویت جعلی برای انجام مقاصد مخرب ایجاد میکند. با توسعه فناوری دیپفیک، همراه با توانایی ایجاد ویدیوهای ساخته شده توسط هوش مصنوعی، این نوع حملات در آینده بسیار خطرناکتر خواهند بود.
با تشدید حملات سایبری دیپفیک، چگونه میتوانیم از سالمندان، کودکان و سایر گروههای آسیبپذیر در برابر کلاهبرداران محافظت کنیم؟
دکتر نگوین توان خانگ: افراد مسن و کودکان اغلب توسط کلاهبردارانی که از تکنیکی به نام مهندسی اجتماعی استفاده میکنند، مورد حمله قرار میگیرند. این اصطلاحی است که حملات را از طریق دستکاری رفتار انسان توصیف میکند.
هکرها اکنون میتوانند از هوش مصنوعی در ترکیب با جمعآوری، کاوش و تحلیل دادهها برای شناسایی افرادی که احتمالاً مورد کلاهبرداری قرار میگیرند استفاده کنند و سپس راههایی برای حمله پیدا کنند. علاوه بر افزایش آگاهی در جامعه، باید بپذیریم که موقعیتهایی که کاربران مورد کلاهبرداری قرار میگیرند، رخ خواهد داد و باید از فناوری برای شناسایی و جلوگیری از آن استفاده کنیم.
اخیراً موردی پیش آمد که یک کارمند بانک به پیرزنی که برای انتقال پول آمده بود مشکوک شد و نشانههایی از کلاهبرداری در او مشاهده کرد. این شخص بلافاصله تراکنش را متوقف کرد و آن را به مقامات گزارش داد. سیستمهای فناوری اطلاعات بانکها اکنون دارای فناوریهایی هستند که میتوانند جایگزین انسانها در چنین وظایفی شوند.
نقش فناوری این است که حتی اگر فرستنده به عنوان شخص واقعی شناخته شود، سیستم همچنان در صورت مشکوک شدن به دستکاری تراکنش توسط شخص دیگری، انتقال را متوقف میکند. چنین ابزارهایی، سیستمهای پیشگیری از کلاهبرداری نامیده میشوند.
آیا وقت آن رسیده است که ویتنام تحریمهایی برای مدیریت هوش مصنوعی داشته باشد و تحقیق، توسعه و استفاده از هوش مصنوعی را در یک چارچوب قرار دهد؟
دکتر نگوین توان خانگ: موضوع مدیریت هوش مصنوعی مدتهاست که مورد بحث قرار گرفته است، با این حال، هنوز هم بحثهای زیادی در مورد آن وجود دارد. به عنوان مثال، پارکینگ منطقه من دارای یک سیستم هوش مصنوعی برای تشخیص پلاک خودرو است، اما هنوز هم سرقتهایی رخ میداد. در آن زمان، بحث بر سر این بود که تقصیر کیست. آیا باید صاحب آپارتمان، نگهبان امنیتی یا توسعهدهنده سیستم هوش مصنوعی مسئول باشند؟
از آن زمان، این ساختمان قوانین خود را تغییر داده و اعلام کرده است که ساکنان میتوانند برای راحتی بیشتر از هوش مصنوعی برای تشخیص پلاک خودرو استفاده کنند، اما باید خطرات آن را نیز بپذیرند. کسانی که موافق باشند میتوانند از درهای اتوماتیک استفاده کنند، و کسانی که موافق نباشند باید ماشینهای خود را به روش قدیمی پارک کنند. ما باید چنین تحریمهایی را اعمال کنیم.
به همین ترتیب، IBM زمانی یک سیستم هوش مصنوعی برای کمک به پیشگیری از سرطان توسعه داد. وقتی سیستم دارو تجویز کرد، اما بیمار آن را مصرف کرد اما همچنان نتوانست نجات یابد، آیا تقصیر پزشک است یا تقصیر هوش مصنوعی؟
من فکر میکنم مقررات هوش مصنوعی باید خاص باشد و به وضوح بیان کند که هنگام توسعه برنامههای کاربردی هوش مصنوعی چه کاری میتوان و چه کاری نمیتوان انجام داد. برای امنتر کردن جهان، اساسیترین مقرراتی که میتوانیم انجام دهیم این است که انتقال پولهای بزرگ را ملزم به شناسایی بیومتریک کنیم. در چنین شرایطی، افرادی که اطلاعات هویتی خود را از دست میدهند، میتوانند کاملاً از دست دادن پول جلوگیری کنند.
متشکرم.
منبع
نظر (0)