Vietnam.vn - Nền tảng quảng bá Việt Nam

كيفية التعرف على عمليات الاحتيال التي تستغل Deepfake

VTC NewsVTC News22/10/2023

[إعلان 1]

أصبحت تقنية Deepfake الآن مصدر قلق كبير مع استمرار زيادة عدد عمليات الاحتيال القائمة على التكنولوجيا.

بعد البحث في منتديات Darknet، حيث يعمل مجرمو الإنترنت في كثير من الأحيان، وجد خبراء الأمن أن هناك العديد من المجرمين الذين يستخدمون Deepfake للاحتيال لدرجة أن الطلب تجاوز بكثير العرض من برامج Deepfake الموجودة حاليًا في السوق.

ومع تجاوز الطلب للعرض، يتوقع خبراء كاسبرسكي أن تزداد عمليات الاحتيال بتقنية Deepfake، مع أشكال أكثر تنوعًا وتطورًا: بدءًا من تقديم مقطع فيديو انتحال عالي الجودة إلى استخدام صور المشاهير في البث المباشر المزيف على وسائل التواصل الاجتماعي، مع الوعد بدفع مبلغ مضاعف عن المبلغ الذي أرسله الضحية إليهم.

وفقًا لنظام مرجع المعلومات Regula، واجهت 37% من الشركات في جميع أنحاء العالم عملية احتيال باستخدام الصوت المزيف Deepfake ووقع 29% ضحية لمقاطع الفيديو المزيفة Deepfake.

أصبحت هذه التكنولوجيا تشكل تهديدًا للأمن السيبراني في فيتنام، حيث يستخدم مجرمو الإنترنت في كثير من الأحيان مكالمات فيديو مزيفة لانتحال شخصية الأفراد من أجل اقتراض الأموال من أقاربهم وأصدقائهم.

يمكن أن تستمر مكالمة الفيديو Deepfake لمدة دقيقة واحدة فقط، مما يجعل من الصعب على الضحايا التمييز بين الحقيقي والمزيف.

تتحول تقنية Deepfake تدريجيا إلى

تتحول تقنية Deepfake تدريجيا إلى "كابوس" في عمليات الاحتيال المتطورة عبر الإنترنت.

أصبح التزييف العميق كابوسًا للنساء والمجتمع. يستغل مجرمو الإنترنت الذكاء الاصطناعي لدمج وجوه الضحايا في الصور ومقاطع الفيديو الإباحية، وكذلك في الحملات الدعائية.

وقالت السيدة فو دونج تو دييم، المديرة الإقليمية لشركة كاسبرسكي في فيتنام: "تهدف هذه الأشكال إلى التلاعب بالرأي العام من خلال نشر معلومات كاذبة، بل وحتى الإضرار بسمعة المنظمات أو الأفراد".

على الرغم من إساءة استخدام الذكاء الاصطناعي من قبل المجرمين لأغراض خبيثة، لا يزال بإمكان الأفراد والشركات استخدام الذكاء الاصطناعي نفسه لتحديد Deepfakes، مما يقلل من احتمال نجاح عمليات الاحتيال.

وبناءً على ذلك، سيكون لدى المستخدمين بعض الحلول المفيدة لحماية أنفسهم من عمليات الاحتيال مثل استخدام برامج الكشف عن المحتوى المولد بالذكاء الاصطناعي (باستخدام خوارزميات متقدمة لتحليل وتحديد مستوى تحرير الصور/مقاطع الفيديو/الأصوات).

بالنسبة لمقاطع الفيديو المُزيّفة، تتوفر أدوات يمكنها اكتشاف حركات الفم والكلام غير المتطابقة. بعض البرامج قوية بما يكفي لاكتشاف تدفق الدم غير الطبيعي تحت الجلد من خلال تحليل دقة الفيديو، لأن لون أوردة الإنسان يتغير عند ضخ القلب للدم.

بالإضافة إلى ذلك، توجد علامة مائية تُعدّ بمثابة علامة تعريف في الصور والفيديوهات وغيرها، لمساعدة المؤلفين على حماية حقوق الطبع والنشر لمنتجات الذكاء الاصطناعي. يمكن أن تُصبح هذه الميزة سلاحًا ضد التزييف العميق، إذ تُساعد على تتبع أصل المنصة التي تُنشئ الذكاء الاصطناعي. يُمكن للمستخدمين ذوي المعرفة التقنية إيجاد طريقة لتتبع أصل المحتوى لمقارنة كيفية تعديل البيانات الأصلية بواسطة الذكاء الاصطناعي.

حاليًا، تستخدم بعض التقنيات الناشئة خوارزميات تشفير لإدراج قيم تجزئة ضمن فترات زمنية محددة في الفيديو. في حال تعديل الفيديو، تتغير قيمة التجزئة، ومن ثم يمكن للمستخدمين التحقق مما إذا كان المحتوى قد تعرض للتلاعب أم لا.

كانت هناك بعض الدروس التعليمية في الماضي حول العثور على الشذوذ في مقاطع الفيديو، على سبيل المثال، انحرافات اللون، وحركات العضلات غير الطبيعية، وحركات العين... ومع ذلك، أصبح الذكاء الاصطناعي أكثر ذكاءً، لذا فإن هذه القيم لا تعطي دائمًا نتائج صحيحة.

لم تعد عملية التحقق من موثوقية مقاطع الفيديو تعتمد على العين المجردة، بل تتطلب أدوات تكنولوجية تم إنشاؤها بغرض منع واكتشاف المحتوى المزيف.

خان لينه


[إعلان 2]
مصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

الموسم الذهبي الهادئ لـ Hoang Su Phi في الجبال العالية في Tay Con Linh
قرية في دا نانغ ضمن قائمة أجمل 50 قرية في العالم 2025
تكتظ قرية الحرف الفوانيس بالطلبات خلال مهرجان منتصف الخريف، حيث يتم تصنيعها بمجرد تقديم الطلبات.
يتأرجح بشكل خطير على الجرف، متشبثًا بالصخور لكشط مربى الأعشاب البحرية في شاطئ جيا لاي

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج