التزييف العميق (Deepfakes) هو فيديوهات وصور مُعدّلة رقميًا باستخدام الذكاء الاصطناعي أو التعلم الآلي. بدأت المواد الإباحية المُنتجة باستخدام هذه التقنية بالانتشار على الإنترنت قبل بضع سنوات عندما شارك أحد مستخدمي Reddit مقاطع إباحية مزيفة تحمل وجوه مشاهير.
الصورة: جي آي
يمكن لأي شخص أن يكون ضحية.
منذ ذلك الحين، واصل مُنشئو التزييف العميق نشر مقاطع فيديو وصور مماثلة تستهدف المؤثرين على الإنترنت والصحفيين وغيرهم من أصحاب الحسابات العامة. وتوجد آلاف من هذه المقاطع على مواقع إلكترونية عديدة.
مع تزايد إمكانية الوصول إلى تقنيات الذكاء الاصطناعي، فإن هذا يسمح للمستخدمين بتحويل أي شخص يريدونه إلى "نجم إباحي" دون موافقتهم، أو ما هو أخطر من ذلك، استخدام التكنولوجيا لتشويه سمعة الآخرين أو ابتزازهم.
ويقول الخبراء إن المشكلة قد تزداد سوءًا مع تطوير أدوات الذكاء الاصطناعي التوليدية التي يتم تدريبها على مليارات الصور من الإنترنت وتوليد محتوى جديد باستخدام البيانات الموجودة.
قال آدم دودج، مؤسس EndTAB، وهي مجموعة تُقدم تدريبًا حول إساءة استخدام التكنولوجيا: "الحقيقة هي أن التكنولوجيا ستستمر في الانتشار والتطور، وستصبح أكثر سهولة في الوصول إليها واستخدامها. وما دام ذلك قائمًا، فسيستمر الناس حتمًا في إساءة استخدام هذه التكنولوجيا لإيذاء الآخرين، لا سيما من خلال العنف الجنسي عبر الإنترنت، والمواد الإباحية المُزيفة، والصور العارية المزيفة".
نويل مارتن، من بيرث، أستراليا، عاشت هذه التجربة. قبل عشر سنوات، اكتشفت الشابة البالغة من العمر 28 عامًا صورًا إباحية مزيفة لها عندما بحثت عن صورتها على جوجل بدافع الفضول. وحتى اليوم، تقول مارتن إنها لا تعرف من أنشأ هذه الصور أو الفيديوهات الإباحية المزيفة. وتشتبه في أن أحدهم استخدم صورها على مواقع التواصل الاجتماعي لإنشاء فيديوهات إباحية.
حاولت مارتن التواصل مع المواقع لإزالة الفيديوهات، لكن جهودها باءت بالفشل. بعضها لم يستجب، بينما حذفها آخرون ثم أعادوا نشرها بسرعة. قالت مارتن: "لن تفوزي. إنها ستبقى على الإنترنت إلى الأبد، وقد تدمر حياتك".
جهود شركات التكنولوجيا لإصلاح الأمر
وتقول بعض نماذج الذكاء الاصطناعي إنها قامت بتقييد الوصول إلى الصور الإباحية.
أعلنت شركة OpenAI أنها أزالت المحتوى الإباحي من البيانات التي استخدمتها لتدريب مُولّد الصور DALL-E، مما يُفترض أن يحدّ من احتمالية إساءة الاستخدام. كما تُرشّح الشركة الطلبات، وتقول إنها تمنع المستخدمين من إنشاء صور ذكاء اصطناعي للمشاهير والسياسيين البارزين. كما يحظر نموذج آخر، وهو Midjourney، استخدام كلمات مفتاحية مُعيّنة، ويشجع المستخدمين على الإبلاغ عن الصور المُثيرة للمشاكل للمشرفين.
في غضون ذلك، أطلقت شركة Stability AI تحديثًا يمنع المستخدمين من إنشاء صور عارية. تأتي هذه التغييرات بعد ورود تقارير تفيد بأن بعض المستخدمين يستخدمون هذه التقنية لإنشاء صور عارية مستوحاة من المشاهير.
قال المتحدث باسم شركة "ستابيليتي إيه آي"، موتيز بشارة، إن الفلتر يستخدم مزيجًا من الكلمات المفتاحية وتقنيات أخرى، مثل التعرف على الصور، للكشف عن العُري. ولكن يُمكن للمستخدمين تعديل البرنامج وإنشاء ما يريدون، لأن الشركة أصدرت الكود مفتوح المصدر للتطبيق.
كما شددت بعض شركات التواصل الاجتماعي القواعد لحماية منصاتها بشكل أفضل من المواد الضارة.
في الشهر الماضي، قالت شركة تيك توك إن كل المحتوى المزيف أو المتلاعب به يجب أن يتم تصنيفه للإشارة إلى أنه مزيف أو معدل بطريقة ما.
كما قامت منصة الألعاب Twitch مؤخرًا بتحديث سياساتها بشأن مقاطع الفيديو المزيفة بعد أن تم القبض على أحد المذيعين المشهورين المسمى Atrioc وهو يفتح موقعًا إباحيًا مزيفًا في متصفحه أثناء البث المباشر في أواخر يناير.
قالت شركتا أبل وجوجل إنهما أزالتا مؤخرًا تطبيقًا من متاجر التطبيقات الخاصة بهما لتشغيله مقاطع فيديو مزيفة ذات إيحاءات جنسية لتسويق منتجاتهما.
من مغني غربي إلى نجم الكيبوب.
نادرًا ما تُجرى أبحاث حول المواد الإباحية المزيفة، لكن تقريرًا أصدرته شركة الذكاء الاصطناعي DeepTrace Labs عام ٢٠١٩ وجد أنها استُخدمت بشكل شبه كامل ضد النساء. وكانت الممثلات الغربيات الأكثر استهدافًا، يليهن مغنيات البوب الكوري.
وقال المتحدث باسم شركة Meta، داني ليفر، في بيان إن سياسات الشركة تقيد المحتوى للبالغين الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وغير المولد بواسطة الذكاء الاصطناعي، كما أنها تقيد صفحات التطبيقات التي تنتج محتوى مزيفًا عميقًا من الإعلان على منصتها.
في فبراير، بدأت ميتا، بالإضافة إلى مواقع للبالغين مثل Only**** وPorn***، بالمشاركة في أداة إلكترونية تُسمى "خذها"، والتي تتيح للمراهقين الإبلاغ عن صور ومقاطع فيديو جنسية صريحة لأنفسهم من الإنترنت. يدعم الموقع كلاً من مقاطع فيديو كاميرات التجسس ومقاطع الفيديو المُولّدة بالذكاء الاصطناعي.
هوانغ تون (وفقا لوكالة اسوشيتد برس)
[إعلان 2]
مصدر
تعليق (0)