owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
ومن المتوقع أن تكون التكنولوجيا الجديدة هي المفتاح لحل مشكلة التزييف العميق بشكل فعال.

Deepfake هو مصطلح تم إنشاؤه عن طريق الجمع بين "التعلم العميق" و "المزيف". ببساطة، هي تقنية محاكاة وإنشاء منتجات صوتية أو بصرية أو حتى فيديو مزيفة.

منذ التطور الهائل للذكاء الاصطناعي ، أصبحت مشكلة التزييف العميق شائعة بشكل متزايد، مما أدى إلى موجات من المعلومات المضللة المنتشرة في الصحافة. ومن ثم، فإن التحقق بشكل استباقي من أصل الصور ومقاطع الفيديو يعد قضية ملحة بالنسبة لشركات الكاميرات الرائدة في العالم .

ومن المتوقع أن تطلق شركات سوني وكانون ونيكون خطوط كاميرات رقمية تدعم التوقيعات الرقمية مباشرة على خطوط الكاميرات بدون مرآة (أو كاميرات DSLR الرقمية) التي تنتجها. إن الجهود المبذولة لتنفيذ التوقيعات الرقمية على الكاميرات هي إجراء مهم للغاية، لأنها تخلق دليلاً على أصل الصور وسلامتها.

ستتضمن هذه التوقيعات الرقمية معلومات حول التاريخ والوقت والموقع والمصور وستكون مقاومة للتلاعب. وهذا مهم بشكل خاص بالنسبة للمصورين الصحفيين وغيرهم من المحترفين الذين يتطلب عملهم المصادقة.

اتفقت ثلاث شركات عملاقة في صناعة الكاميرات على معيار عالمي للتوقيعات الرقمية المتوافقة مع أداة التحقق عبر الإنترنت Verify. أطلقت مجموعة عالمية من المؤسسات الإخبارية وشركات التكنولوجيا ومصنعي الكاميرات أداة جديدة تتيح التحقق مجانا من صحة أي صورة. إذا تم إنشاء الصور أو تعديلها باستخدام الذكاء الاصطناعي، فسوف يقوم Verify بوضع علامة عليها باعتبارها "لا تحتوي على معلومات التحقق من المحتوى".

وتنبع أهمية تقنيات مكافحة التزييف العميق من الارتفاع السريع في استخدام التزييف العميق لشخصيات مشهورة مثل الرئيس الأمريكي السابق دونالد ترامب ورئيس الوزراء الياباني فوميو كيشيدا.

بالإضافة إلى ذلك، قام باحثون من جامعة تسينغهوا في الصين بتطوير نموذج ذكاء اصطناعي توليدي جديد قادر على توليد حوالي 700 ألف صورة يوميًا.

ديب فيك 01.jpg
ستساعد التكنولوجيا الجديدة في استعادة الثقة وتشكيل نظرتنا للعالم.

بالإضافة إلى شركات تصنيع الكاميرات، تنضم شركات تقنية أخرى أيضًا إلى المعركة ضد التزييف العميق. أطلقت شركة جوجل أداة لإضافة علامة مائية رقمية على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، في حين طورت شركة إنتل تقنية تقوم بتحليل تغييرات لون البشرة في الصور للمساعدة في تحديد مدى صحتها. وتقوم شركة هيتاشي أيضًا بالبحث في مجال التكنولوجيا لمنع الاحتيال على الهوية عبر الإنترنت.

ومن المتوقع إطلاق التكنولوجيا الجديدة في أوائل عام 2024. وتخطط سوني للترويج للتكنولوجيا في وسائل الإعلام وقد أجرت بالفعل اختبارات ميدانية في أكتوبر 2023. وتتعاون كانون مع تومسون رويترز ومختبر ستارلينج لحفظ البيانات (معهد أبحاث أسسته جامعة ستانفورد وجامعة جنوب كاليفورنيا) لمزيد من تحسين التكنولوجيا.

ويأمل مصنعو الكاميرات أن تساعد التكنولوجيا الجديدة في استعادة ثقة الجمهور في الصور، وهو ما يؤثر بدوره على نظرتنا للعالم.

(وفقا لOL)

دفع 5000 دولار لشركة فيسبوك لنشر فيديو احتيال استثماري مزيف

دفع 5000 دولار لشركة فيسبوك لنشر فيديو احتيال استثماري مزيف

دفع محتال لفيسبوك أكثر من 5000 دولار لإرسال مقطع فيديو مزيف إلى 100 ألف شخص في أستراليا. فيديو مزيف لبرنامج مقابلات ويدعو الناس للاستثمار لتحقيق أرباح ضخمة.
برمجيات خبيثة جديدة تسيطر على الهواتف الذكية، ومقاطع الفيديو المزيفة أصبحت أكثر تطوراً

برمجيات خبيثة جديدة تسيطر على الهواتف الذكية، ومقاطع الفيديو المزيفة أصبحت أكثر تطوراً

يمكن للبرمجيات الخبيثة الجديدة تجاوز الحواجز الأمنية والسيطرة على الهواتف الذكية؛ أصبحت مقاطع الفيديو المزيفة أكثر تعقيدًا وواقعية؛... كانت هذه هي أخبار التكنولوجيا البارزة في الأسبوع الماضي.
أصبحت مقاطع الفيديو المزيفة أكثر تطوراً وواقعية

أصبحت مقاطع الفيديو المزيفة أكثر تطوراً وواقعية

في سياق التكنولوجيا المتطورة بشكل متزايد، توجد أدوات تسمح بإنشاء مقاطع فيديو مزيفة عميقة تبلغ نسبة 70-80% منها حقيقية، ويمكن الخلط بينها بسهولة عند مشاهدتها بالعين المجردة.
ما لا يجب فعله

ماذا تفعل لتجنب الوقوع في فخ مكالمات الفيديو Deepfake التي تخدع التحويلات المالية؟

إذا تلقيت مكالمة تطلب تحويل أموال عاجلة، فابق هادئًا وتحقق من المعلومات أولاً، حيث من المرجح أن تتعرض لعملية احتيال من خلال مكالمة فيديو Deepfake.
يتم استغلال تقنية Deepfakes لوضع وجوه الضحايا في مقاطع الفيديو الإباحية

يتم استغلال تقنية Deepfakes لوضع وجوه الضحايا في مقاطع الفيديو الإباحية

يستغل مجرمو الإنترنت الذكاء الاصطناعي والتزييف العميق تدريجيًا لأغراض خبيثة، ليصبحوا أدوات للاحتيال وحتى إذلال الآخرين.