
سرلشکر لو شوان مین، مدیر اداره امنیت سایبری و پیشگیری از جرایم پیشرفته، در این رویداد سخنرانی کرد (عکس: NCA).
صبح روز ۱۵ نوامبر، مسابقه دانشجویی امنیت سایبری ۲۰۲۵ رسماً وارد دور نهایی شد.
این مسابقه توسط انجمن ملی امنیت سایبری، تحت نظارت وزارت امنیت عمومی و وزارت آموزش و پرورش برگزار شد. در چارچوب این رویداد، بحثی در مورد محافظت از افراد و سازمانها در برابر حملات سایبری در عصر دیجیتال: شناسایی و پاسخ پیشگیرانه به خطرات احتمالی صورت گرفت.
در این بحث، دکتر هوین تی تان بین، معاون مدیر دانشکده فناوری اطلاعات و ارتباطات ، دانشگاه علوم و فناوری هانوی ، داستان یک دانشجوی بینالمللی را که میشناخت و اخیراً در دام یک کلاهبرداری فناوری بسیار پیچیده گرفتار شده بود، به اشتراک گذاشت.
در این پرونده، کلاهبردار خود را به عنوان یک افسر پلیس جا زده و به دروغ قربانی را به دست داشتن در معامله مواد مخدر متهم کرده بود.
آنها نه تنها قربانیان را فریب میدادند و از آنها میخواستند برای تحقیقات پول واریز کنند، بلکه روانشناسی خود را تا جایی تشدید میکردند که آنها را مجبور به "درآوردن لباس" برای گرفتن عکس میکردند، سپس از آن تصاویر حساس برای اخاذی از خانواده استفاده میکردند.

کارشناسان در جلسه بحث (عکس: NCA).
این داستان یک واقعیت وحشتناک را ترسیم میکند: هوش مصنوعی (AI) رسماً به سلاحی برای جنگ روانی تبدیل شده است.
اینها دیگر کلاهبرداریهای پراکنده نیستند. آقای نگو توان آن، مدیر کل شرکت سهامی امنیت دادههای ویتنام، گفت که تنها در یک سال، تعداد حملات فیشینگ مبتنی بر هوش مصنوعی 20 برابر افزایش یافته است.
چرا هوش مصنوعی اینقدر خطرناک است؟
سرهنگ دکتر نگوین هونگ کوان، رئیس دپارتمان امنیت دادهها و حفاظت از دادههای شخصی، انجمن ملی امنیت سایبری، گفت که فناوری دیپفیک اکنون فقط به حدود ۳۰ ثانیه برای تقلید صدای انسان نیاز دارد.
آقای نگو مین هیو، مدیر سازمان مبارزه با کلاهبرداری، با همین دیدگاه اظهار داشت که مجرمان سایبری امروزی لزوماً نباید هکرهای برجستهای باشند. اکنون، آنها میتوانند ابزارهای هوش مصنوعی طراحیشدهی ویژه را استخدام کنند.
«اکنون یک بازار زیرزمینی کامل وجود دارد که در آن هوش مصنوعی برای مجرمان تطبیق داده میشود و در بستههای ماهانه درست مانند آنچه کاربران ChatGPT پرداخت میکنند، فروخته میشود.»
آقای هیو به اشتراک گذاشت: «فقط با ۲۰۰ تا ۳۰۰ دلار در ماه، هر کسی میتواند یک ابزار هوش مصنوعی داشته باشد که به طور خودکار اسکریپتهای کلاهبرداری را کامپایل میکند، قربانیان را غربالگری میکند و حتی ویروسهایی حاوی کدهای مخرب مانند باجافزار ایجاد میکند.»
طعمهای پرسود برای هکرها
یکی از شدیدترین جبههها در جنگ هوش مصنوعی، احراز هویت دیجیتال (eKYC) است. ویتنام در حال حاضر تا ۲۷ میلیون حساب با احراز هویت الکترونیکی افتتاح کرده است. این از نظر هکرها یک "طعمه چرب" است.
آقای فان ترونگ کوان، رئیس دپارتمان ارزیابی امنیت اطلاعات گروه VNPT ، توضیح داد که مجرمان دیگر از ترفندهای ابتدایی مانند چسباندن شماره شناسایی یا کدهای QR روی اسناد جعلی استفاده نمیکنند. اکنون، آنها از فناوری دیپفیک برای کپی کردن بخش شناسایی استفاده میکنند.
پیچیدهترین روش، حملهی «مرد میانی» است. وقتی کاربر احراز هویت ویدیویی مانند چرخاندن صورت یا خواندن دستورات را انجام میدهد، هکر در وسط قرار میگیرد تا بتواند در دادههای منتقل شده اختلال ایجاد کند.
آقای کوان هشدار داد: «آنها ویدیوهای از پیش آمادهشدهی دیپفیک را جایگزین جریان دادههای واقعی کاربر میکنند تا احراز هویت را دور بزنند. سیستم بانکی و مالی یک چهرهی جعلی را «میبیند» اما آن را واقعی میداند.»

به گفته آقای وو دوی هین، معاون دبیرکل انجمن ملی امنیت سایبری، دانشجویان نیروی پیشتاز در خط مقدم حفاظت از حاکمیت دیجیتال ملی هستند (عکس: NCA).
تنها راه حل برای حملات با سرعت ماشین، استفاده از یک «سپر» است که با سرعت ماشین نیز عمل کند. کارشناسان میگویند این یک جنگ با هوش مصنوعی است.
آقای فان ترونگ کوان فاش کرد که چگونه VNPT در حال تجهیز مجدد هوش مصنوعی برای دفاع است. سیستم VNPT به جای تجزیه و تحلیل صرف تصاویر چهره، از هوش مصنوعی برای تشخیص رفتارهای غیرمعمول استفاده میکند.
این فناوری مبتنی بر بیومتریک رفتاری است - تجزیه و تحلیل جزئیات کوچکی که انسانها نمیتوانند درک کنند، اما هوش مصنوعی میتواند.
هوش مصنوعی نحوه نگه داشتن گوشی توسط کاربران را تجزیه و تحلیل خواهد کرد. یک کاربر واقعی لرزش و حرکت طبیعی خواهد داشت. در عین حال، نحوه تعامل انگشتان کاربر با صفحه نمایش، مناطق حرارتی مختلفی ایجاد میکند. هوش مصنوعی این عادت را یاد میگیرد تا بین افراد واقعی و رباتها تمایز قائل شود.
تمام این دادهها به یک «موتور یادگیری ماشینی» که از شبکههای عصبی استفاده میکند، وارد میشوند. اگر هوش مصنوعی تشخیص دهد که رفتار فعلی به طور غیرمعمول با دادههای تاریخی متفاوت است، حساب را مسدود میکند و قبل از هرگونه آسیبی، جلسه معاملاتی را قفل میکند.
ضعیفترین عامل، مردم هستند
با این حال، حتی قویترین «سپر» هوش مصنوعی هم اگر انسانها در را به روی دشمنان باز کنند، بیفایده میشود.
کارشناسان اتفاق نظر دارند: افراد ضعیفترین حلقه در هر مدل سازمانی تدافعی هستند.
آقای هوانگ مان دوک، رئیس گروه تحقیقات امنیت سیستم در دانشگاه FPT، گفت که مدل دفاعی «دیوار بلند، خندق عمیق» منسوخ شده است. عصر ابر و اینترنت اشیا نیازمند یک استراتژی جدید است: «اعتماد صفر».
فلسفه Zero Trust این است که ما به هیچ اتصالی، هیچ دستگاهی، چه داخلی و چه خارجی، اعتماد نخواهیم کرد، همه باید به شدت احراز هویت شوند.
اما فناوری تنها بخشی از معادله است. نگوین دوک دوی، مهندس ارشد راهحل، هواوی ویتنام، بر اهمیت پشتیبانگیریهای تغییرناپذیر - یعنی اینکه نمیتوان آنها را رونویسی، حذف یا اصلاح کرد - همراه با پارتیشنهای کاملاً ایزوله تأکید کرد تا اطمینان حاصل شود که دادهها همیشه پس از حمله باجافزار قابل بازیابی هستند.
دکتر دوآن ترونگ سون، مدیر برنامه امنیت سایبری در دانشگاه فنیکا، خاطرنشان کرد که مشکل ویتنام فقدان «فرهنگ امنیت سایبری» است.
این فرهنگ صرفاً یک مسئلهی فناوری نیست، بلکه یک مسئلهی انسانی است و باید از بالا به پایین و با شروع از آگاهی رهبری، اجرا شود.
مبارزه برای محافظت از فضای سایبری ویتنام، جبهه جدیدی در آرمان دفاع از سرزمین پدری است. ویتنام برای پیروزی در این نبرد، در هر سه رکن اقدام میکند: فناوری، قانون و از همه مهمتر، مردم.
منبع: https://dantri.com.vn/cong-nghe/ai-dang-tro-thanh-vu-khi-chien-tranh-tam-ly-cua-toi-pham-mang-20251115171410658.htm






نظر (0)