مكالمات احتيالية بتقنية Deepfake: عملية احتيال جديدة ومتطورة للغاية
ومن الأمثلة النموذجية على ذلك السيدة VTM (26 عامًا في لونغ بيان، هانوي ) التي تلقت رسالة من أحد أقاربها في الخارج على فيسبوك يطلب منها تحويل 75 مليون دونج إلى عدد من الحسابات. في هذا الوقت، اعتقدت السيدة VTM أن هذا قريب لها، لذلك لم تتردد في تحويل الأموال.
وقالت السيدة VTM إنها عندما تلقت رسالة تطلب اقتراض المال من أحد أقاربها، اتصلت بعناية للتحقق ورأت أن الصورة هي بالفعل صديقتها. لقد وثقت السيدة VTM ونقلت القرض. لكن بعد فترة، رأيت منشورًا على الصفحة الشخصية لأحد أقاربي يعلن أن حسابه على فيسبوك قد تم اختراقه من قبل محتال لطلب المال من بعض الأصدقاء والأقارب. اتصلت السيدة VTM بأقاربها وأدركت أنها تعرضت للاحتيال.
أو مثل حالة السيد VDC (42 عامًا في مقاطعة نهوي، هانوي) الذي قال إنه تعرض لعملية احتيال بمبلغ 30 مليون دونج من خلال مكالمة فيديو Deepfake. على وجه التحديد، أرسل لي أحد أقاربي في الخارج رسالة نصية يطلب فيها مني اقتراض مبلغ من المال بسبب أمر عاجل. وبعد ذلك مباشرة، تلقت السيدة تام مكالمة فيديو عبر تطبيق ماسنجر فيسبوك.
لم تدم المكالمة سوى ثوانٍ معدودة، لكنني رأيت وجه حبيبي وطريقة مخاطبته المألوفة، لكن المكالمة كانت متقطعة. ثم تلقيت رسالة تفيد بأن الإشارة ضعيفة، لذا لم أستطع مواصلة مكالمة الفيديو، فانتقلت إلى الرسائل النصية تسهيلًا عليّ. وثقت به وحولت المبلغ وفقًا للتعليمات، كما روى السيد VDC.
وفي تعليقه على هذه القضية، أشار خبير التكنولوجيا نجو مينه هيو من المركز الوطني لمراقبة الأمن السيبراني (NCSC) إلى أن تقنية الذكاء الاصطناعي تساعد كثيرًا في حياة الإنسان. ومع ذلك، استغل الأشرار تكنولوجيا الذكاء الاصطناعي لإنشاء نسخ صوتية، من خلال اختطاف حسابات فيسبوك وإنستغرام... ثم دراسة الرسائل، ونماذج العناوين، وسجل المعاملات... لإنشاء مكالمات وهمية واحتيال على الأموال من الأقارب وعائلة الحساب المخترق، إلى الاتصال بالضحية مباشرة لإنشاء مواقف عاجلة تتطلب تحويلات مالية.
بعد الاستيلاء على حساب الضحية على فيسبوك، أرسل المحتال رسالة نصية للضحية لاقتراض المال، ثم اتصل بالضحية عبر مكالمة فيديو مزيف، وأغلق الهاتف لبضع ثوانٍ، ثم قال إنه فقد إشارة هاتفه... عند هذه النقطة، وثق به الضحية وحول الأموال لأن الطرف الآخر كان بحاجة ماسة إلى اقتراض المال،" علق خبير التكنولوجيا نجو مينه هيو.
قال السيد نجو توان آنه، رئيس مجلس الإدارة والرئيس التنفيذي لشركة سمارت سايبر سيكيوريتي المساهمة، إن الاحتيال عبر الإنترنت يمكن تقسيمه حاليًا إلى طريقتين رئيسيتين، وهما انتحال صفة وكالات التحقيق والمحاكم واستغلال "جشع" الناس مثل الحصول على مكافآت كبيرة وكسب المال بسهولة... مع هذين الشكلين من الاحتيال، هناك العديد من السيناريوهات المختلفة، بما في ذلك السيناريو الذي يُنصح فيه المستخدمون بالتحقق المتبادل من المعلومات عن طريق إجراء مكالمة فيديو. لقد كان المحتال هو من توصل إلى هذا "الحل" لخداع الضحية.
كيف يعمل Deepfake؟
وبحسب شرطة مدينة هانوي، فإن Deepfake هي تقنية تستخدم الذكاء الاصطناعي لإنشاء منتجات تقنية الصوت والصورة والفيديو التي تزيف الأشياء الحقيقية بدقة عالية جدًا.
استنادًا إلى ملف صورة لوجه وصوت شخص حقيقي، سيستخدم Deepfake خوارزميات لإعادة إنشاء الوجه والصوت لمطابقة ملامح الوجه وتعبيرات شخص آخر؛ ثم قم بإنشاء مقطع فيديو مزيف تمامًا للموضوع الحقيقي. من خلال الإنترنت، يقوم المشاركون بجمع صور وأصوات المستخدمين على شبكات التواصل الاجتماعي، باستخدام تقنية Deepfake لإنشاء رسوم متحركة ومقاطع فيديو مزيفة للمستخدمين يتحدثون عبر الإنترنت بنفس الوجه ونبرة الصوت وشكل الخطاب.
قام المتهم بإنشاء حساب وهمي على شبكة التواصل الاجتماعي بنفس معلومات وصورة الملف الشخصي للمستخدم، وأضاف الضحية إلى قائمة أصدقائه، وأرسل رسائل لاقتراض المال وفقًا لسيناريو موجود مسبقًا. في بعض الحالات، يقوم المهاجمون باختطاف حسابات المستخدمين على الشبكات الاجتماعية لإرسال رسائل مباشرة إلى الضحايا الموجودين في قائمة أصدقائهم. ولكسب ثقة الضحية، قام الضحية بتحميل مقطع فيديو Deepfake موجود إلى قناة مكالمة الفيديو، مما يسمح للضحية بالتعرف على صورة وصوت أحد معارفه وتحويل الأموال بسرعة بناءً على طلب الضحية.
وأضافت شرطة مدينة هانوي أنه باستخدام تقنية Deepfake، أصبحت مقاطع الفيديو المزيفة تتمتع بدقة عالية، ويصعب للغاية التمييز بين الحقيقي والمزيف. ومع ذلك، فإن مقاطع الفيديو التي ينشئها الشخص غالبًا ما تحتوي على محتوى عام، لا يتوافق تمامًا مع السياق الفعلي للتواصل مع الضحية، مما قد يجعل الضحية يشك في الأمر ويكتشفه. ولتغطية العيوب المذكورة أعلاه، يقوم الأشخاص في كثير من الأحيان بإنشاء مقاطع فيديو ذات صوت يصعب سماعه وصور غير واضحة، على غرار مكالمات الفيديو ذات الإشارات غير المستقرة التي يتم إجراؤها في مناطق ذات تغطية ضعيفة للهاتف المحمول/الواي فاي. هذه عملية احتيال جديدة للغاية ومتطورة للغاية.
كيفية منع سرقة بيانات الوجه والصوت؟
وبحسب خبير التكنولوجيا نجو مينه هيو، فإن أفضل طريقة لتجنب Deepfake هي أن يحد المستخدمون من مشاركة الصور أو مقاطع الفيديو الشخصية عبر الإنترنت؛ وفي الوقت نفسه، قم دائمًا بتأمين حساباتك على وسائل التواصل الاجتماعي والبريد الإلكتروني باستخدام كلمات مرور قوية.
إذا قمت بمشاركة مقاطع فيديو أو مقاطع عبر الإنترنت، فيجب عليك تشويه صوتك واستبداله بصوت روبوت أو ذكاء اصطناعي لمنع الأشرار من معرفة صوتك الحقيقي.
إذا تم تزوير Deepfake، فيجب على المستخدمين إخطار الجميع على الفور والإبلاغ إلى السلطات على canhbao.ncsc.gov.vn أو الإبلاغ إلى مشروع chongluadao https://chongluadao.vn؛ وفي الوقت نفسه، من الضروري رفع مستوى الوعي حول التعرف على الاحتيال الإلكتروني على: dauhieuluadao.com.
توصي شرطة مدينة هانوي الأشخاص باليقظة عند تلقي أي رسائل أو مكالمات فيديو تطلب المال من خلال تطبيقات التواصل الاجتماعي. يجب على الأشخاص البقاء هادئين عند تلقي أي رسائل أو مكالمات فيديو تطلب الاقتراض أو استعارة المال عبر تطبيقات التواصل الاجتماعي، ثم الاتصال أو التواصل مع الأقارب مباشرة للتحقق (لا تتصل عبر تطبيقات التواصل الاجتماعي مثل Zalo، Messenger، Viber، Telegram...). في حالة الاشتباه في انتحال شخصية أحد الأقارب على شبكات التواصل الاجتماعي بهدف الاحتيال أو الاستيلاء على الممتلكات، يجب على الأشخاص الإبلاغ فورًا إلى أقرب وكالة شرطة للحصول على الدعم في الوقت المناسب ومكافحة ومنع ومعالجتها بشكل صارم وفقًا للقانون.
وفي حديثه عن كيفية منع مكالمات الاحتيال، أشار السيد نجو توان آنه إلى أن الناس بحاجة إلى أن يكونوا يقظين وألا ينقروا على روابط غريبة. إذا قمت بتحويل الأموال، فهناك طريقة بسيطة وفعالة للتحقق: تحقق من تطبيق الخدمات المصرفية عبر الإنترنت الخاص بالبنك لمعرفة ما إذا كانت المعلومات الصحيحة للأقارب والأصدقاء معروضة عند إدخال رقم الحساب قبل التحويل.
قال خبير التكنولوجيا نجو مينه هيو إن إحدى العلامات التي يمكن من خلالها التعرف على مكالمات Deepfake وتجنبها هي أن وجه الشخصية في الفيديو يفتقر إلى العاطفة ويكون "غير مبال" تمامًا عند التحدث، أو أن الوضع محرج أو غير طبيعي، أو أن اتجاه رأس وجسم الشخصية في الفيديو غير متسق مع بعضهما البعض.
وفقًا لشركات الأمن، فإن Deepfake هو مزيج من كلمتي "deep" في "التعلم العميق" و"fake". التعلم العميق هو استخدام أساليب الذكاء الاصطناعي المتقدمة التي تطبق خوارزميات متعددة لتجميع الميزات المتقدمة تدريجيًا من بيانات الإدخال. ومن هناك، تصبح هذه التقنية قادرة على تجميع البيانات التي يدخلها المستخدمون، مثل الوجوه البشرية والحركات الجسدية والأصوات، والتعلم منها. يمكن لتقنية Deepfake أن تقوم بتركيب وجه شخص على وجه شخص آخر في مقطع فيديو بدقة عالية. |
نمط المكتب
[إعلان 2]
مصدر
تعليق (0)