في 12 يونيو، نقلت شبكة إن بي سي نيوز تحذيرا من مكتب التحقيقات الفيدرالي بأن المحتالين - وخاصة المجرمين ذوي التقنية العالية - يستخدمون الذكاء الاصطناعي لإنشاء مقاطع فيديو إباحية أو صور مزيفة للضحايا، ثم يطلبون منهم الدفع لمنع انتشارها على الإنترنت.
تُسمى هذه الطريقة "التزييف العميق" (Deepfake)، وهي تقنية تجمع بين خوارزميات التعلم العميق والتعلم الآلي لإنشاء مقاطع فيديو أو صور أو أصوات مزيفة واقعية. وقد اكتسبت هذه الأداة شعبية متزايدة في السنوات الأخيرة.
صورة توضيحية: مجلة AZ للأعمال
وفي تحذير صدر في 12 يونيو/حزيران، قال مكتب التحقيقات الفيدرالي إنه تلقى شكاوى متزايدة بشأن استخدام المجرمين لأدوات التزييف العميق لإنشاء مقاطع فيديو وصور إباحية مزيفة بغرض الابتزاز.
يلتقط المجرمون صورًا ومقاطع فيديو للضحايا على مواقع التواصل الاجتماعي. وبعد إنتاج منتجات مزيفة، ينشرونها على مواقع التواصل الاجتماعي والمنتديات العامة والمواقع الإباحية.
وفقًا لمكتب التحقيقات الفيدرالي (FBI)، يُجبر الضحايا على دفع أموال أو بطاقات هدايا أو حتى صور "جنسية" أو نشر مقاطع فيديو وصور مزيفة. في الوقت نفسه، يهددهم المحتالون بإرسالها إلى عائلة الضحية وأصدقائه إذا لم يمتثلوا.
توصل تحقيق أجرته شبكة إن بي سي نيوز في شهر مارس/آذار إلى أنه من السهل الوصول إلى منتجات إباحية مزيفة من خلال منصات البحث والدردشة عبر الإنترنت.
يقول رئيس مركز موارد سرقة الهوية (ITRC)، وهو منظمة غير ربحية تساعد ضحايا الاحتيال، إن المجرمين يحاولون أحيانًا صدم الضحايا بفيديوهات أو صور حساسة للغاية. بعد أن يُصاب الضحية بالذعر، يرغب ببساطة في اختفاء الفيديو أو الصورة، مما يعني الرضوخ لمطالب المحتالين.
وينصح مكتب التحقيقات الفيدرالي الناس بالحذر عند قبول طلبات الصداقة من الغرباء وفهم أن الاستجابة لطلبات مجرمي التزييف العميق لا يعني أنهم لن ينشروا مقاطع فيديو أو صورًا جنسية صريحة لهم.
قدم المركز الوطني للأطفال المفقودين والمستغلين خدمة مجانية تسمى Take It Down للمساعدة في منع توزيع مقاطع الفيديو أو الصور الحساسة للأطفال دون سن 18 عامًا.
[إعلان 2]
مصدر
تعليق (0)