يمكن للأشرار استخدام الذكاء الاصطناعي لدمج الصور ومقاطع الفيديو الحساسة لتشويه سمعة الآخرين وابتزازهم - صورة: رسم الذكاء الاصطناعي
في الماضي، عند الحديث عن تقنية قص ولصق وجه شخص ما على جسم شخص آخر، كان الناس يستخدمون غالبًا برنامج الفوتوشوب أو برامج تحرير الصور المتخصصة - وهي عملية شاقة ويمكن التعرف عليها بسهولة بالعين المجردة.
والآن، مع أدوات الذكاء الاصطناعي، أصبح بإمكان الناس القيام بذلك بسهولة شديدة في "بضع ملاحظات"، ولكن ليس من السهل اكتشافه بالعين المجردة.
فيديو جنسي لتبادل الوجوه للابتزاز
بسبب علاقات العمل، يتفاعل السيد هـ (مدير إحدى الشركات في مدينة هوشي منه) كثيرًا على شبكات التواصل الاجتماعي.
في إحدى المرات، تعرف على فتاة صغيرة سألته عن عمله. وبعد فترة من الاستفسار عن بعضهما البعض، والدردشة، وتبادل أطراف الحديث حول العمل والحياة الشخصية، بدا الاثنان قريبين جدًا من بعضهما.
وكان هناك أيضًا العديد من الرسائل النصية بين الاثنين تحتوي على كلمات عاطفية للغاية، إلى جانب تبادل الصور بينهما، ومكالمات الفيديو لرؤية بعضهما البعض.
في أحد الأيام، تلقى السيد هـ. اتصالاً مفاجئاً من رجل يدّعي أنه زوج الفتاة. وبعد إجراء استباقي ضد السيد هـ.، طالبه "الزوج" بتحويل تعويض مالي وإلا سيرسل صوراً لمحادثاتهما ومقاطع فيديو جنسية إلى أقاربه وشركائه في العمل.
ثم عُرض على السيد ح. مقطع فيديو جنسي له وللفتاة الأخرى من قبل "زوجه"، بالإضافة إلى مكالمة فيديو بينهما، ورسائل نصية حميمة تم التقاطها...
لم ألتقِ بتلك الفتاة قط، لذا أنا متأكد من أن الفيديو الجنسي مُعدّل بالفوتوشوب - أكد السيد هـ. مع ذلك، فإن صورة وجه الفتاة في الفيديو الجنسي والفتاة في مكالمة الفيديو هي نفسها، بالإضافة إلى صورة الرسالة النصية العاطفية، مما أجبر السيد هـ. على تحويل الأموال إلى "زوجه" مرات عديدة حفاظًا على سمعته.
من خلال تحقيقات توي تري ، تعرض السيد هـ. لعملية احتيال منظمة باتباع سيناريو مثالي. في هذه العملية، خُدع السيد هـ. مرتين بتقنية التزييف العميق. الأولى كانت مكالمة فيديو والثانية فيديو جنسي.
من الجدير بالذكر أنه في الفيديو الجنسي، تم تركيب وجه السيد هـ. بمهارة فائقة، لدرجة أن المشاهدين استصعبوا تصديق أنه فيديو تركيب وجوه. أكد خبير ذكاء اصطناعي لتوي تري أن المجرمين استخدموا أداة ذكاء اصطناعي جديدة تُمكّنهم من تركيب الوجوه على الفيديوهات بإتقان... تمامًا كالوجوه الحقيقية.
تتوفر أدوات الذكاء الاصطناعي لتبادل الوجوه بكثرة
توجد حاليًا العديد من أدوات تطبيقات الذكاء الاصطناعي التي تتمتع بمميزات مثل إنشاء أي شخص بالوجه المطلوب، ودمج الوجه المطلوب على جسم شخص آخر.
ومن بينها أدوات ذات خصائص تخدم أغراضًا سيئة مثل تحويل الصور العادية إلى صور عارية عن طريق "تجريد" الشخص الموجود في الصورة، أو استبدال وجه شخص في مقاطع الفيديو بوجه مرغوب فيه...
معظم أدوات الذكاء الاصطناعي هذه متاحة للتجربة، ولكن الدفع مقابلها سيمنحك الميزات الكاملة مع وقت تحويل سريع للغاية.
على سبيل المثال، مع ميزة وجهاً لوجه، كل ما يحتاجه المستخدمون هو تحميل صورتين متطابقتين وانتظار بضع ثوانٍ للحصول على النتائج.
أو باستخدام خاصية إنشاء صور عارية من صور عادية، تستطيع أداة الذكاء الاصطناعي القيام بذلك بسرعة كبيرة، في بضع عشرات من الثواني فقط، مما يجعل المشاهدين مذهولين.
حتى خاصية استبدال الوجوه في الفيديوهات الجنسية، تقوم بها أداة الذكاء الاصطناعي بسرعة كبيرة، حيث تستغرق أقل من دقيقة لمقاطع الفيديو التي يبلغ طولها بضع ثوانٍ.
في حديثه مع Tuoi Tre ، قام السيد نجوين كيم ثو، رئيس فريق البحث والتطوير في شركة VNetwork للأمن السيبراني، بتحليل مصطلح deepfake، والذي يشير إلى مقاطع فيديو وصور مزيفة تم إنشاؤها باستخدام الذكاء الاصطناعي لجعل المشاهدين يعتقدون أنها حقيقية.
تستخدم تقنية Deepfake نماذج التعلم العميق مثل الشبكات العصبية لتحليل بيانات الوجه والصوت الخاصة بشخص ما وإنشاء محتوى مزيف يشبه هذا الشخص تمامًا.
"بفضل الخوارزميات القوية، يمكن للأشرار وضع وجه الضحية في مقاطع فيديو حساسة (على سبيل المثال، مقاطع فيديو "سريرية"، أو إباحية) أو تحرير الصور لإنشاء صور عارية مزيفة.
وقال السيد ثو: "أصبحت برامج وتطبيقات Deepfake الآن شائعة جدًا على الإنترنت، حتى مع تطبيقات الهاتف المحمول أو الكود مفتوح المصدر أو الخدمات المجانية عبر الإنترنت - مما يجعل من السهل على أي شخص الوصول إلى أدوات لإنشاء مقاطع فيديو وصور مزيفة، لذلك يحتاج الناس إلى أن يكونوا يقظين".
ابتعد عن "الدردشة الجنسية"
تبدأ العديد من عمليات الاحتيال بتكوين صداقات عبر الإنترنت، ثم خداع الضحية بـ"دردشة جنسية" أو إرسال صور حساسة. لذلك، يجب على المستخدمين عدم إرسال صور أو مقاطع فيديو خاصة إلى أشخاص لا يلتقون بهم إلا عبر الإنترنت، مهما كانت الوعود أو التهديدات.
تذكر دائمًا أن أي محتوى تتم مشاركته (حتى عبر الرسائل الخاصة) يمكن تسجيله (لقطة شاشة، فيديو) ثم تحريره واستخدامه ضدك.
إذا كنت تجري مكالمة فيديو، فكن حذرًا من الغرباء الذين يطلبون محتوى حساسًا - فقد تكون شاشة مزيفة أو يقومون بالتسجيل.
وينصح خبراء الأمن السيبراني المستخدمين بعدم الثقة بأي شخص عبر الاتصال عبر الإنترنت فقط، والتحقق من هوية الشخص الآخر ونواياه قبل مشاركة أي شيء حساس.
بالإضافة إلى ذلك، إذا تلقيت رسالة نصية أو مكالمة تهدد بنشر صور "ساخنة" بغرض الابتزاز، فلا داعي لأن يخاف المستخدمون أو يتسرعوا في تحويل الأموال.
إن الدفع لا يضمن أن الأشرار سوف يحذفون الفيديو؛ فقد يستمرون في المطالبة بالمزيد أو نشر المحتوى عبر الإنترنت على أي حال، كما يقول الخبراء.
بدلاً من اتباع طلبات المجرمين، يجب على المستخدمين جمع الأدلة (الرسائل، أرقام الهواتف، حسابات الاتصال، المحتوى التهديدي...) والإبلاغ عنها فورًا إلى أقرب وكالة شرطة أو الإبلاغ عن الحادث عبر تطبيق VNeID التابع لوزارة الأمن العام للحصول على الدعم في الوقت المناسب.
كيفية التعرف عليه؟
وبحسب السيد نجوين كيم ثو، فإن التمييز بين الصور ومقاطع الفيديو الحقيقية والتزييف العميق أصبح صعبًا بشكل متزايد، ولكن لا تزال هناك بعض العلامات المميزة والأدوات الداعمة.
يمكن للمستخدمين المراقبة يدويًا، لأن المحتوى المزيف أحيانًا يحتوي على تشوهات في الصورة والصوت.
على سبيل المثال، قد تُظهر الصورة المُركّبة تشويشًا أو اختلافات في الألوان بين الوجه المُركّب والجسم. وقد يحتوي الفيديو المُزيّف على عدم تطابق في الصوت والفيديو (حركات شفاه لا تتطابق مع الكلام) أو تعابير وجه تبدو جامدة وغير طبيعية.
في السابق، كانت بعض مقاطع الفيديو المزيفة تجعل الشخصيات لا ترمش، أو أن الإضاءة والظلال على الوجه لا تتطابق مع السياق - وهي علامات على أن الفيديو تم تحريره.
وعلى الرغم من تحسن التكنولوجيا (على سبيل المثال، أضافت تقنيات التزييف العميق الجديدة حركات رمش واقعية للعين)، لا يزال بإمكان المشاهدين المراقبين اكتشاف بعض التفاصيل غير المنطقية في مقاطع الفيديو والصور.
ويعمل الباحثون الآن على تطوير العديد من الخوارزميات للكشف تلقائيًا عن آثار التزييف العميق.
غالبًا ما يترك المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي "بصمة رقمية" مميزة في كل بكسل يمكن للآلات التعرف عليها.
على سبيل المثال، قدمت شركة إنتل أول جهاز لكشف التزييف العميق في الوقت الفعلي، وهو قادر على تحليل مقاطع الفيديو وتحديد ما إذا كانت الشخصيات الموجودة فيها أشخاصًا حقيقيين أو تم إنشاؤها بواسطة الذكاء الاصطناعي.
بالإضافة إلى ذلك، تتيح بعض المواقع الإلكترونية للمستخدمين تحميل مقاطع فيديو وصور للتحقق من صحتها (على سبيل المثال، Deepware، وأدوات Sensity AI...). تُحدَّث هذه الأنظمة باستمرار لمواكبة تقنيات التزييف العميق الجديدة.
وعلى وجه الخصوص، يمكن للمستخدمين التحقق من مصدر المنشور والسياق عند مواجهة مقطع فيديو أو صورة حساسة، لأن العديد من مقاطع الفيديو المزيفة تنتشر من خلال حسابات مزيفة أو روبوتات على الشبكات الاجتماعية.
إذا كان المحتوى الحساس المتعلق بشخص ما صادرًا عن مصدر غير رسمي أو حساب مجهول، فكن متشككًا بشأن صحته. يمكنك محاولة التواصل مباشرةً مع الشخص المذكور في المحتوى للتأكد من أنه هو من نشره.
علاوةً على ذلك، تُشجّع مشاريع مثل تضمين معلومات المصادقة (التوقيعات الرقمية) في الصور ومقاطع الفيديو منذ لحظة إنشائها، مما يُساعد على التمييز بين المحتوى الأصلي والمحتوى المُحرّر. وفي المستقبل، سيتمكن المستخدمون من استخدام علامات المصادقة هذه لتحديد المحتوى الموثوق،" كما قال السيد ثو.
5 نصائح لحماية نفسك
1. الحد من مشاركة الصور ومقاطع الفيديو الحساسة والخاصة (وخاصة الصور العارية والصور العائلية وصور الأطفال).
2. اضبط حساباتك على وسائل التواصل الاجتماعي على أنها خاصة (شاركها فقط مع الأشخاص الموثوق بهم).
3. لا تقدم الكثير من المعلومات الشخصية (الاسم الكامل، رقم الهاتف، العنوان...) على شبكات التواصل الاجتماعي العامة.
4. قم بتعيين كلمات مرور قوية وقم بتمكين التحقق بخطوتين لحساباتك لتجنب التعرض للاختراق.
5. ابحث بانتظام عن اسمك وصورتك على Google (أو استخدم أدوات البحث العكسي عن الصور مثل Google Image وTinEye) لمعرفة ما إذا كان قد تم نشر أي من صورك بدون إذن، واطلب إزالتها على الفور.
المصدر: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
تعليق (0)