يستطيع النموذج متعدد الوسائط، المسمى OmniHuman-1، إنشاء مقاطع فيديو ديناميكية للشخصيات وهي تتحدث وتغني وتتحرك "بجودة فائقة مقارنة بأساليب إنشاء الفيديو الحالية"، وفقًا لفريق تطوير ByteDance.

تُستخدم تقنية الذكاء الاصطناعي التي تُنشئ صورًا ومقاطع فيديو وصوتًا واقعيًا، والمعروفة أيضًا باسم "التزييف العميق"، بشكل متزايد في عمليات الاحتيال والترفيه.

تُعدّ شركة ByteDance حاليًا واحدة من أبرز شركات الذكاء الاصطناعي في الصين، ويُعتبر تطبيق Doubao التابع لها الأكثر شعبية بين مستخدمي البر الرئيسي الصيني.

على الرغم من أن OmniHuman-1 لم يتم إصداره للجمهور على نطاق واسع بعد، إلا أن مقاطع الفيديو التجريبية انتشرت بسرعة على نطاق واسع.

كان أحد العروض التوضيحية المميزة مقطع فيديو مدته 23 ثانية يصور ألبرت أينشتاين وهو يلقي خطابًا. وصف موقع TechCrunch مخرجات التطبيق بأنها "مذهلة بشكل صادم" و"أكثر مقاطع الفيديو بتقنية التزييف العميق واقعية حتى الآن".

يقول المطورون أن OmniHuman-1 لا يحتاج إلا إلى صورة واحدة كبيانات مرجعية إلى جانب البيانات الصوتية مثل الكلام أو الغناء لإنشاء فيديو بأي طول.

يمكن تعديل معدل إطارات الفيديو الناتج، وكذلك "نسب الجسم" للشخصيات الموجودة فيه.

d6a434e5a4dc974582b09c05b3646092afcf9490.jpeg
تُعدّ شركة بايت دانس حاليًا من أبرز شركات الذكاء الاصطناعي في الصين. (صورة: تيك كرانش)

علاوة على ذلك، فإن نموذج الذكاء الاصطناعي، الذي تم تدريبه على 19000 ساعة من محتوى الفيديو من مصادر غير منشورة، قادر على تحرير مقاطع الفيديو الموجودة وحتى تغيير حركات اليد والقدم البشرية بدرجة مقنعة.

ومع ذلك، اعترفت شركة ByteDance أيضًا بأن OmniHuman-1 ليس مثاليًا، حيث لا يزال يعاني من بعض الوضعيات، وأن "الصور المرجعية منخفضة الجودة" لن تنتج أفضل فيديو.

يُظهر نموذج الذكاء الاصطناعي الجديد لشركة بايت دانس التقدم الذي أحرزته الصين على الرغم من جهود واشنطن لتقييد صادرات التكنولوجيا.

مخاوف

انتشرت مقاطع الفيديو السياسية المزيفة بتقنية التزييف العميق على مستوى العالم العام الماضي. ففي مولدوفا، قلدت مقاطع الفيديو المزيفة رئيسة البلاد، مايا ساندو، وهي تلقي خطاب استقالتها.

وفي جنوب أفريقيا، انتشر مقطع فيديو مزيف بتقنية التزييف العميق يظهر مغني الراب إيمينيم وهو يدعم حزباً معارضاً جنوب أفريقياً، وذلك قبل الانتخابات التي جرت في البلاد.

تُستخدم تقنية التزييف العميق بشكل متزايد لارتكاب جرائم مالية. إذ يتعرض المستهلكون للاحتيال من خلال مقاطع فيديو مزيفة لمشاهير يوصون بالاستثمار ويقدمون فرصًا استثمارية وهمية، بينما تخسر الشركات ملايين الدولارات بسبب انتحال شخصيات كبار المسؤولين التنفيذيين.

وفقًا لشركة ديلويت، ساهم المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في خسائر احتيال تجاوزت 12 مليار دولار في عام 2023، وقد تصل إلى 40 مليار دولار في الولايات المتحدة بحلول عام 2027.

في فبراير الماضي، وقّع مئات الأشخاص في مجتمع الذكاء الاصطناعي رسالةً تدعو إلى فرض لوائح أكثر صرامة على تقنية التزييف العميق. ورغم عدم وجود قوانين اتحادية تجرّم هذه التقنية في الولايات المتحدة، فقد سنّت أكثر من عشر ولايات قوانين ضد التزوير المدعوم بالذكاء الاصطناعي.

مع ذلك، فإن اكتشاف الفيديوهات المزيفة بتقنية التزييف العميق ليس بالأمر السهل. فعلى الرغم من أن بعض منصات التواصل الاجتماعي ومحركات البحث قد اتخذت إجراءات للحد من انتشارها، إلا أن كمية المحتوى المزيف بتقنية التزييف العميق على الإنترنت لا تزال تنمو بمعدل ينذر بالخطر.

في استطلاع أجرته شركة التحقق من الهوية Jumio في مايو 2024، أفاد 60% من المشاركين بتعرضهم لفيديوهات مزيفة بتقنية التزييف العميق في العام الماضي؛ وقال 72% من المجيبين إنهم قلقون من التعرض للخداع من خلال الفيديوهات المزيفة بتقنية التزييف العميق يوميًا، بينما أيدت الأغلبية إصدار تشريع لمعالجة انتشار الفيديوهات المزيفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.

أعطت جوجل الضوء الأخضر لاستخدام الذكاء الاصطناعي في الأسلحة وتقنيات المراقبة . وقد أخلت جوجل بوعدها بعدم تصميم ونشر أدوات الذكاء الاصطناعي لاستخدامها في الأسلحة وتقنيات المراقبة.