أعلن مكتب المدعي العام في نيو هامبشاير يوم الاثنين أنه يحقق في احتمال حدوث تلاعب بالناخبين بعد شكاوى بشأن صوت مزيف يشبه تمامًا صوت الرئيس جو بايدن وهو يحث الناخبين على عدم التصويت في الانتخابات التمهيدية بالولاية.
وحذر الباحثون أيضًا من استخدام الصوت المزيف لتقليد السياسيين والقادة، مع حدوث حالات بارزة في عام 2023 في المملكة المتحدة والهند ونيجيريا والسودان وإثيوبيا وسلوفاكيا.
شخص يُصوّت في الانتخابات التمهيدية في نيو هامبشاير، الولايات المتحدة الأمريكية. الصورة: جيتي
يقول الخبراء إن الصوت المُزيّف أصبح شكلاً شائعاً من التضليل الإعلامي، بفضل ظهور مجموعة من أدوات الذكاء الاصطناعي منخفضة التكلفة والفعالة من الشركات الناشئة. كما طورت مايكروسوفت نموذج ذكاء اصطناعي جديداً يُمكّن من استنساخ صوت من تسجيل مدته ثلاث ثوانٍ فقط.
قال هنري أجدر، خبير الذكاء الاصطناعي والتزييف العميق ومستشار أدوبي وميتا وإي واي: "عندما يتعلق الأمر بالتلاعب البصري، فالجميع على دراية ببرنامج فوتوشوب، أو على الأقل يعلم بوجوده. لكن الوعي بكيفية التلاعب بالصوت محدود للغاية، لذا أرى أن هذا يُعرّضنا للخطر".
في سبتمبر/أيلول، اكتشف نظام "نيوز جارد"، الذي يُقيّم جودة مواقع الأخبار وموثوقيتها، شبكةً من حسابات تيك توك تنتحل صفة مواقع إخبارية رسمية، مستخدمةً محتوىً مُولّدًا بالذكاء الاصطناعي لنشر نظريات المؤامرة والمعلومات السياسية المضللة. وقد جذبت تسجيلاتٌ مُزيّفة، بما في ذلك صوت الرئيس الأمريكي السابق باراك أوباما، مئات الملايين من المشاهدات.
ويبدو أن التعليقات الصوتية المزيفة تم إنشاؤها بواسطة أداة قدمتها شركة ElevenLabs المدعومة من Andreessen Horowitz، في حين حصدت المقاطع مئات الملايين من المشاهدات، وفقًا لما ذكره موقع NewsGuard.
وقالت شركة ElevenLabs: "أكثر من 99% من المستخدمين على منصتنا يقومون بإنشاء محتوى مثير للاهتمام وإبداعي ومفيد، لكننا ندرك أن هناك حالات من سوء الاستخدام وقد قمنا باستمرار بتطوير وتقديم الحماية للحد منها".
تُقدم شركة ElevenLabs، التي أسسها قبل عامين بيوتر دابكوفسكي وماتي ستانيسزوسكي، الموظفان السابقان في جوجل وبالانتير، أدواتٍ أوليةً لتوليد الصوت بتقنية الذكاء الاصطناعي مجانًا بنقرة زر واحدة. تتراوح أسعار الاشتراكات بين دولار واحد و330 دولارًا شهريًا، وقد تزيد عن ذلك، لمن يبحثون عن خدمات أكثر تعقيدًا.
وفي العام الماضي، حذرت وكالات الاستخبارات الأمريكية في تقرير من أن "عمليات الاحتيال بالذكاء الاصطناعي المخصصة زادت بشكل كبير بسبب إصدار نماذج استنساخ صوتية متطورة ومدربة تدريبًا جيدًا".
بالإضافة إلى عمليات الاحتيال ذات الدوافع المالية، يُحذر الخبراء السياسيون الآن من انتشار مقاطع صوتية مُزيفة بعمق، بالإضافة إلى استخدامها في المكالمات الآلية أو الحملات الانتخابية. يقول إيه جيه ناش، نائب الرئيس والزميل المُتميز في مجال الاستخبارات في مجموعة زيرو فوكس للأمن السيبراني: "يمكن بناء حملة تضليل إعلامي قوية وواسعة النطاق من خلال استهداف الهواتف".
اتخذت بعض هذه الشركات خطوات استباقية في إيجاد طرق أخرى لمكافحة المعلومات المضللة. أصدرت مايكروسوفت بيانًا أخلاقيًا يحث المستخدمين على الإبلاغ عن أي إساءة استخدام لأداتها الصوتية المدعومة بالذكاء الاصطناعي. وطوّرت شركة ElevenLabs أدوات كشف خاصة بها لتحديد التسجيلات الصوتية التي ينتجها نظامها.
خلال الانتخابات النيجيرية لعام 2023، انتشر مقطع فيديو تم التلاعب به بواسطة الذكاء الاصطناعي على وسائل التواصل الاجتماعي "يُشير على ما يبدو إلى أن مرشح المعارضة كان يخطط لتزوير الأصوات"، وفقًا لمنظمة حقوق الإنسان فريدوم هاوس.
في سلوفاكيا، انتشر على نطاق واسع تسجيل صوتي مزيف لمرشح المعارضة ميخال شيميتشكا وهو يتآمر على ما يبدو لتزوير الانتخابات قبل أيام قليلة من الانتخابات الرئاسية في البلاد في سبتمبر/أيلول.
قال روبرت فايسمان، رئيس منظمة "بابليك سيتيزن" غير الربحية للدفاع عن المستهلك: "تُذكّرنا تقنية التزييف العميق في نيو هامبشاير بالطرق العديدة التي يُمكن أن تُسبب بها هذه التقنية التشويش والغش. لقد حانت لحظة التزييف العميق السياسية. يجب على صانعي السياسات التحرك بسرعة لوضع ضمانات وإلا سنواجه فوضى انتخابية".
ماي آنه (وفقًا لصحيفة فاينانشال تايمز)
[إعلان 2]
مصدر
تعليق (0)