أصبحت تقنية Deepfake الآن مصدر قلق كبير مع استمرار زيادة عدد عمليات الاحتيال القائمة على التكنولوجيا.
بعد البحث في منتديات Darknet، حيث يعمل مجرمو الإنترنت في كثير من الأحيان، وجد خبراء الأمن أن هناك العديد من المجرمين الذين يستخدمون Deepfake للاحتيال لدرجة أن الطلب تجاوز بكثير العرض من برامج Deepfake الموجودة حاليًا في السوق.
ومع تجاوز الطلب للعرض، يتوقع خبراء كاسبرسكي أن يزداد عدد عمليات الاحتيال بتقنية Deepfake، مع أشكال أكثر تنوعًا وتطورًا: بدءًا من تقديم فيديو انتحال عالي الجودة إلى استخدام صور المشاهير في البث المباشر المزيف على وسائل التواصل الاجتماعي، مع الوعد بدفع مبلغ مضاعف عما أرسله الضحية إليهم.
وفقًا لنظام مرجع المعلومات Regula، واجهت 37% من الشركات في جميع أنحاء العالم عملية احتيال باستخدام الصوت المزيف العميق، ووقعت 29% ضحية لمقاطع الفيديو المزيفة العميقة.
أصبحت هذه التكنولوجيا تشكل تهديدًا للأمن السيبراني في فيتنام، حيث يستخدم مجرمو الإنترنت في كثير من الأحيان مكالمات فيديو مزيفة لانتحال شخصية الأفراد من أجل اقتراض الأموال من أقاربهم وأصدقائهم.
يمكن أن تستمر مكالمة الفيديو Deepfake لمدة دقيقة واحدة فقط، مما يجعل من الصعب على الضحايا التمييز بين الحقيقي والمزيف.
تتحول تقنية Deepfake تدريجيا إلى "كابوس" في عمليات الاحتيال المتطورة عبر الإنترنت.
أصبحت تقنية التزييف العميق كابوسًا للنساء والمجتمع. يستغل مجرمو الإنترنت الذكاء الاصطناعي لتركيب وجوه الضحايا في صور ومقاطع فيديو إباحية، بالإضافة إلى حملات دعائية.
وقالت السيدة فو دونج تو ديم، المديرة الإقليمية لشركة كاسبرسكي في فيتنام: "تهدف هذه الأشكال إلى التلاعب بالرأي العام من خلال نشر معلومات كاذبة، بل وحتى الإضرار بسمعة المنظمات أو الأفراد".
في حين يتم إساءة استخدام الذكاء الاصطناعي من قبل المجرمين لأغراض خبيثة، لا يزال بإمكان الأفراد والشركات استخدام الذكاء الاصطناعي نفسه لتحديد Deepfakes، مما يقلل من احتمال نجاح عمليات الاحتيال.
وبناءً على ذلك، سيكون لدى المستخدمين بعض الحلول المفيدة لحماية أنفسهم من عمليات الاحتيال مثل استخدام برامج الكشف عن المحتوى المولد بالذكاء الاصطناعي (باستخدام خوارزميات متقدمة لتحليل وتحديد مستوى تحرير الصور/مقاطع الفيديو/الصوت).
بالنسبة لمقاطع الفيديو المُزيّفة، توجد أدوات قادرة على كشف حركات الفم والكلام غير المتطابقة. بعض البرامج قوية بما يكفي لاكتشاف تدفق الدم غير الطبيعي تحت الجلد من خلال تحليل دقة الفيديو، فعندما يضخ القلب الدم، يتغير لون أوردة الإنسان.
بالإضافة إلى ذلك، توجد علامة مائية تُعدّ بمثابة علامة تعريف في الصور والفيديوهات وغيرها، لمساعدة المؤلفين على حماية حقوق الطبع والنشر لمنتجات الذكاء الاصطناعي. يمكن أن تُصبح هذه الميزة سلاحًا ضد التزييف العميق، إذ تُساعد على تتبع أصل المنصة التي تُنشئ الذكاء الاصطناعي. يُمكن للمستخدمين ذوي المعرفة التقنية إيجاد طريقة لتتبع أصل المحتوى لمقارنة كيفية تعديل البيانات الأصلية بواسطة الذكاء الاصطناعي.
حاليًا، تستخدم بعض التقنيات الناشئة خوارزميات تشفيرية لإدراج قيم تجزئة على فترات زمنية محددة في الفيديو. في حال تعديل الفيديو، تتغير قيمة التجزئة، ومن ثم يمكن للمستخدمين التحقق مما إذا كان المحتوى قد تم التلاعب به أم لا.
كانت هناك بعض الدروس التعليمية في الماضي حول العثور على الشذوذ في مقاطع الفيديو، مثل انحرافات اللون، وحركات العضلات غير الطبيعية، وحركات العين، وما إلى ذلك. ومع ذلك، أصبح الذكاء الاصطناعي أكثر ذكاءً، لذا فإن هذه القيم لا تعطي دائمًا نتائج صحيحة.
لم تعد عملية التحقق من موثوقية مقاطع الفيديو تعتمد على العين المجردة، بل تتطلب أدوات تكنولوجية تم إنشاؤها بغرض منع واكتشاف المحتوى المزيف.
خان لينه
[إعلان 2]
مصدر
تعليق (0)