
يتم نشر المزيد والمزيد من الصور ومقاطع الفيديو التي تم تعديلها وإضافتها بواسطة الذكاء الاصطناعي على الشبكات الاجتماعية لجذب المشاهدات - الصورة: DUC THIEN
في الماضي، كان على المستخدمين العاديين استئجار خبراء فوتوشوب لإنشاء صورة مزيفة، أما اليوم، وبفضل الذكاء الاصطناعي، وفي أقل من 5 دقائق وباستخدام بعض المهارات الأساسية، يمكن أن تظهر مجموعة من الصور المزيفة في كل مكان.
عندما يقوم الذكاء الاصطناعي بإنشاء صور ومقاطع فيديو وأغاني... حقيقية لدرجة يصعب تصديقها
قالت السيدة هوان ماي (مدينة هو تشي منه) - موظفة الاتصالات - التي تتصفح موقع فيسبوك بانتظام كل يوم، إن هناك المزيد والمزيد من المحتوى الذي ينشره المستخدمون من خلال تدخل أدوات الذكاء الاصطناعي.
هناك العديد من الصور التي ينشرها الأصدقاء أو أعضاء المجموعات، وهي صور حقيقية لدرجة أنني لا أستطيع معرفة ما إذا كان الذكاء الاصطناعي قد استُخدم فيها لو لم يُصرّحوا بذلك. كما أن المزيد والمزيد من مقاطع الفيديو، من الرسوم المتحركة إلى الخيال وحتى الأفلام القصيرة، أو مقاطع الفيديو المتعلقة بحدث واقعي، تُنتجها أدوات الذكاء الاصطناعي، لكنني لا أستطيع معرفة ذلك، كما قالت السيدة ماي.
ليس فقط الصور والفيديوهات، بل حتى على منصة يوتيوب الاجتماعية، نجد العديد من الأغاني التي يؤديها أو يؤلفها "مغنو الذكاء الاصطناعي". يتحمس العديد من المستخدمين لهذه التجربة الجديدة ويتنافسون على مشاركتها مع أصدقائهم على منصات التواصل الاجتماعي.
لا أستطيع الجزم إن كان هذا مُغنٍّ مُعتمد على الذكاء الاصطناعي إن لم يُعلن عنه. ينتشر محتوى الذكاء الاصطناعي بشكل متزايد في الفضاء الإلكتروني في فيتنام. وربما لن يتمكن المستخدمون العاديون مثلي قريبًا من التمييز بين المحتوى الذي يصدره أشخاص حقيقيون، والمحتوى الذي يُصدره الذكاء الاصطناعي، أو المحتوى الذي يتدخل فيه، وفقًا لخان ها (مدينة هو تشي منه).
في الآونة الأخيرة، قامت العديد من منصات التواصل الاجتماعي في فيتنام بعرض مقاطع فيديو وبث مباشر لبيع منتجات الأشخاص ذوي الإعاقة، مما جعل مجتمع الإنترنت أكثر تعاطفًا ومشاركة.
ومع ذلك، كشف مجتمع الإنترنت لاحقًا عن حالات عديدة لاستخدام الذكاء الاصطناعي لتحويل أشخاص عاديين إلى أشخاص ذوي إعاقة. والغرض من هذه الخدعة هو استغلال تعاطف المشاهدين لبيع سلع أو تقديم خدمات احتيالية.
يقول العديد من خبراء التكنولوجيا إن شبكات التواصل الاجتماعي شهدت مؤخرًا تزايدًا في عدد الحسابات التي تنشر فيديوهات ترويجية تتضمن صورًا لأشخاص من ذوي الإعاقة أو المرضى أو المحتاجين لجذب التعاطف. إلا أن الواقع يُظهر أن جزءًا كبيرًا من هذا المحتوى يُنشأ أو يُحرر باستخدام أدوات الذكاء الاصطناعي، مما يُحوّل الأشخاص العاديين إلى أشخاص من ذوي الإعاقة لأغراض الربح أو الاحتيال.
في حديثه مع توي تري، حذّر السيد ميلكو رادوتيك، نائب الرئيس المسؤول عن منطقة آسيا والمحيط الهادئ في iProov، الشركة الرائدة عالميًا في مجال تكنولوجيا المصادقة البيومترية، قائلاً: "أظهرت أبحاثنا أن 99.9% من المشاركين لا يستطيعون تمييز مقاطع الفيديو المزيفة. حتى أدوات الكشف المتقدمة اليوم تواجه صعوبات جمة".
زيادة المقاومة للمستخدمين الرقميين
قال السيد دانج هوو سون - نائب مدير معهد البحوث التطبيقية وتنمية الموارد البشرية AIOV، مؤسس شركة LovinBot AI والرئيس التنفيذي لها - إنه منذ أن أطلقت Google تقنية الذكاء الاصطناعي Nano Banana، Veo 3؛ وأطلقت ByteDance Seedream 4، وقبل ذلك أطلقت OpenAI GPT Image، كان سوق الذكاء الاصطناعي نشطًا للغاية وأدى أيضًا إلى العديد من العواقب.
لم تكن التكنولوجيا متاحةً قط كما هي اليوم. هذه كلها نماذج ذكاء اصطناعي فائقة القوة، قادرة على "نسخ الوجوه" بنسبة 90% تقريبًا، بل 99%، مقارنةً بالصورة الأصلية، كما علق السيد سون.
إذا كان في الماضي، لإنشاء صورة مزيفة، كان على المستخدمين العاديين استئجار خبراء فوتوشوب للقيام بذلك، فمع الذكاء الاصطناعي اليوم، في أقل من 5 دقائق مع بعض المهارات الأساسية، يمكن لمجموعة من الصور المزيفة ومقاطع الفيديو المزيفة التي يتم قصها ولصقها، وإضافة تأثيرات إخبارية إليها، أن تنتشر بسرعة مذهلة.
أشار السيد سون إلى أن "الأخبار الكاذبة تتكرر بكثرة، وبكثافة وسهولة في الوصول، ما يدفع عددًا كبيرًا من الأشخاص الذين يتفاعلون معها يوميًا إلى تصديق صحتها. لذا، لا بد من إيجاد حلول للحد من هذه المشكلات".
وفقًا للسيد ترينه نجوين ثين فوك - المدير التكنولوجي لشركة Gianty Vietnam، لكي نتمكن من التمييز بين المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، هناك حاجة إلى ثلاث طبقات: (1) مهارات التحقق من المستخدم (إلى جانب القواعد الذهبية)؛ (2) الأدوات التقنية مثل بيانات اعتماد المحتوى (C2PA)، وعلامات تحديد العلامة المائية (SynthID، AudioSeal) وكاشف التزييف العميق؛ (3) عملية التنسيق بين الأطراف ذات الصلة مثل: المنصات، ومشغلي الشبكات، والبنوك...
على وجه الخصوص، يجب تنفيذ القاعدة الذهبية بسرعة كبيرة في غضون 30 - 60 ثانية، بما في ذلك: عدم النقر على الروابط الغريبة، والانتقال إلى التطبيق/الموقع الرسمي للتحقق؛ التوقف فورًا عند مواجهة الكلمات الرئيسية التي تجبرك على اتخاذ إجراء (OTP/تحويل الأموال/عاجل).
في الوقت نفسه، يجب على المستخدمين التحقق من مصدرين مستقلين قبل تصديق الأخبار؛ التحقق من التاريخ والوقت والسياق (الأخبار القديمة مقنعة على أنها جديدة)؛ الاتصال بالرقم الرسمي الذي وجدته بنفسك، لا تستخدم الرقم الذي قدمه الآخرون؛ باستخدام الصور ومقاطع الفيديو، يمكن للمستخدمين البحث عن نتائج ذات صلة...
يعتقد العديد من الخبراء أن الحل الأمثل لمواجهة موجة المحتوى المزيف الذي يُنتجه الذكاء الاصطناعي هو رفع مستوى الوعي العام. فبدلاً من التركيز على الإجراءات التقنية فقط، من الضروري بناء برامج تدريبية ومسابقات أو محاكاة مواقف واقعية لمساعدة الناس على تغيير عاداتهم في تلقي المعلومات.
بالنسبة للشباب، وخاصةً الطلاب، يُمكن للجمع بين المسابقات الإلكترونية والحملات الإعلامية مع المشاهير أو قادة الرأي الرئيسيين أن يُنشئ لديهم جاذبية طبيعية، مما يُساعدهم على التعلم والتجربة مع إتقان مهارات كشف الأخبار والفيديوهات الكاذبة. في الوقت نفسه، يحتاج كبار السن، وخاصةً في المناطق الريفية، إلى وسائل مألوفة وبديهية، مثل المنشورات المصورة ومقاطع الفيديو الإرشادية أو العروض في دور الثقافة والأنشطة المجتمعية.
"إن اتباع نهج مناسب لكل فئة من الناس سيساعد على بناء قاعدة متينة وطويلة الأمد للتوعية، بدلاً من الاكتفاء بالأنشطة قصيرة الأمد. على سبيل المثال، طورت بعض الوحدات إضافات يمكن تثبيتها على متصفح كروم لمساعدة المستخدمين على التحقق من الأخبار عند تصفح الإنترنت أو مواقع التواصل الاجتماعي..."، هذا ما أشار إليه السيد دانغ هوو سون.
استخدام الذكاء الاصطناعي للكشف عن الذكاء الاصطناعي المزيف
قامت شركة Honor للهواتف مؤخرًا بدمج ميزة الكشف عن التزييف العميق بالذكاء الاصطناعي في سلسلة هواتفها الجديدة. تُحلل هذه الميزة الصور والأصوات في 3 ثوانٍ فقط، وتُحذر من التزييف مباشرةً على تطبيقات مثل Messenger وZalo وViber وGoogle Meet، لتصبح بمثابة "درع رقمي" لحماية المستخدمين من عمليات الاحتيال عالية التقنية.
في السابق، في سبتمبر 2025، أعلنت MoMo عن تعاونها مع iProov لنشر تقنية Dynamic Liveness للمساعدة في التحقق من أن المستخدمين حقيقيون، ولديهم الهوية الصحيحة، وتواجدهم في وقت المعاملة، ومنع الاحتيال باستخدام التزييف العميق أو مقاطع الفيديو أو الصور المزيفة.
وفي القطاعات عالية المخاطر مثل القطاع المالي، يعد هذا المستوى من الأمان أمرًا بالغ الأهمية لمنع الاحتيال، ومنع الوصول غير المصرح به، والحفاظ على ثقة المستخدم في المنصة.
المصدر: https://tuoitre.vn/tu-hinh-anh-video-den-ca-khuc-ai-can-trong-con-loc-noi-dung-ai-tren-mang-xa-hoi-20251109232702736.htm






تعليق (0)