يدق خبراء الذكاء الاصطناعي وعلماء السياسة المتخصصون في التكنولوجيا ناقوس الخطر بشأن الحالة غير المتوقعة لأدوات الذكاء الاصطناعي التوليدية مثل ChatGPT قبل الانتخابات الرئاسية الأمريكية لعام 2024.
"أمريكا ليست مستعدة لذلك"
نقلت قناة فوكس نيوز في 15 مايو عن السيد إيه جيه ناش، نائب الرئيس المتخصص في الذكاء الاصطناعي في شركة زيرو فوكس للأمن السيبراني (ومقرها مينيسوتا، الولايات المتحدة الأمريكية)، تحذيره من أن الأمريكيين غير مستعدين للتعامل مع الذكاء الاصطناعي المُولِّد. وأوضح أن الذكاء الاصطناعي المُولِّد لا يقتصر على قدرته على تأليف محتوى رسائل البريد الإلكتروني والرسائل النصية ومقاطع الفيديو بسرعة لخدمة الحملة الانتخابية، بل قد يتحول أيضًا إلى أداة خطيرة.
الحكومات تتسابق لإيجاد طرق لتنظيم أدوات الذكاء الاصطناعي
يُقدم الذكاء الاصطناعي التوليدي نقلة نوعية في إمكانية إنشاء محتوى صوتي ومرئي. فعندما يُتاح ذلك على نطاق واسع وتوزيعه عبر منصات التواصل الاجتماعي، يكون له تأثير هائل، كما أوضح ناش. ومن بين الإمكانيات العديدة التي يُمكن أن يُقدمها الذكاء الاصطناعي التوليدي مثل ChatGPT، هناك العديد من الإمكانيات التي تُؤثر بقوة على الانتخابات والتصويت في دولة حديثة مثل الولايات المتحدة.
يمكن لـ ChatGPT إنشاء قدر كبير من المحتوى في وقت قصير
صورة توضيحية: رويترز
على سبيل المثال، يمكن لبرنامج ChatGPT إنشاء رسائل صوتية آلية تحاكي صوت المرشح، وتطلب من الناخبين التصويت في اليوم الخطأ؛ وإصدار تسجيلات صوتية تبدو وكأنها لمرشح يعترف بجريمة أو ينشئ محتوى عنصريًا؛ وإنشاء مقاطع فيديو لشخص يلقي خطابًا أو مقابلة لم تحدث أبدًا في الواقع؛ والصور التي يتم إنشاؤها بواسطة الكمبيوتر بناءً على تقارير إخبارية محلية تشير زوراً إلى أن أحد المرشحين انسحب من السباق.
ماذا لو اتصل بك إيلون ماسك بنفسه وأقنعك بالتصويت لمرشح معين؟ تساءل الدكتور أورين إتزيوني، الرئيس التنفيذي السابق ومؤسس معهد ألين للذكاء الاصطناعي (ومقره ولاية واشنطن، الولايات المتحدة الأمريكية). وأشار إلى أن "الكثيرين سيستمعون إليه. لكنه لم يُجرِ هذا الاتصال، بل الذكاء الاصطناعي هو من فعل ذلك".
خطر من العدو
حذّر السيد بيتكو ستويانوف، الرئيس العالمي للتكنولوجيا في شركة فورس بوينت للأمن السيبراني (ومقرها تكساس، الولايات المتحدة الأمريكية)، من أن القوى الأجنبية قد تستغل الذكاء الاصطناعي لمحاولة تخريب الانتخابات الأمريكية لعام ٢٠٢٤. وتساءل: "ماذا سيحدث إذا حاولت قوة أجنبية، أو منظمة إجرامية إلكترونية، أو دولة، انتحال شخصية شخص ما؟ ما مستوى تأثيرها؟ هل لدينا طريقة للرد؟". وطرح السيد ستويانوف أسئلةً تحتاج إلى معالجة. وبحسب قوله، ستشهد الولايات المتحدة موجةً من التضليل من مصادر أجنبية خلال فترة الانتخابات.
كما حذّر السيناتور بيت ريكيتس (نبراسكا) من خطر استخدام المنظمات المؤيدة للصين لتقنية التزييف العميق (وهي تقنية تُنتج صورًا ومقاطع فيديو مُفبركة لتبدو وكأنها أشخاص وأحداث حقيقية) خلال موسم انتخابات 2024. وصرح السيد ريكيتس في مقابلة مع قناة فوكس نيوز: "لديهم هذه القدرة بالتأكيد، وهذا أمر يجب أن نكون حذرين للغاية بشأنه".
منذ بداية العام، أثارت الأخبار الكاذبة التي أنشأها الذكاء الاصطناعي ضجةً واسعة على منصات التواصل الاجتماعي. ومن بين هذه الأخبار مقاطع فيديو مزيفة للسيد بايدن وهو يدلي بتصريحات مسيئة عن المتحولين جنسيًا، وصور مُفبركة تُظهر أطفالًا يدرسون عبادة الشيطان في المكتبات. بل إن الكثيرين صدقوها بعد ظهور صور لسجلات الشرطة للرئيس السابق دونالد ترامب على الإنترنت، رغم أنه لم يُصوَّر بتهمة ارتكاب جريمة. وأظهرت صور أخرى مُفبركة من قِبل الذكاء الاصطناعي السيد ترامب وهو يقاوم الاعتقال، وهي أيضًا مزيفة.
قدّمت النائبة إيفيت كلارك (نيويورك) مشروع قانون يُلزم المرشحين بإخطار الناخبين بالصور الإعلانية المُولّدة بالذكاء الاصطناعي. كما شاركت كلارك في رعاية مشروع قانون يُلزم أي شخص يُنشئ صورة مُركّبة بإضافة علامة مائية تُشير بوضوح إلى مصدر الصورة. كما قدّمت عدة ولايات مقترحاتها الخاصة لمعالجة مخاوف التزييف العميق.
قال السيناتور ريكيتس إن أفضل ما يمكن فعله الآن هو توعية الأمريكيين بمخاطر الذكاء الاصطناعي. وأضاف أن الحكومة الأمريكية قادرة على التعاون مع الجامعات لتحسين قدرتها على كشف الصور المزيفة قبل بدء الانتخابات.
تمت ترقية ChatGPT
وفقًا لموقع Mashable، أجرت شركة OpenAI (كاليفورنيا، الولايات المتحدة الأمريكية) مؤخرًا تحديثًا هامًا لبرنامج ChatGPT، يُمكّنه من الاتصال بالإنترنت وتصفحه أثناء العمل. يُمكّن هذا البرنامج ChatGPT من تحديث أحدث المعلومات وتقديم إجابات أكثر دقة. حاليًا، تُوظّف شركات مثل أمازون في الولايات المتحدة فريقًا من مهندسي الذكاء الاصطناعي لبناء ودمج واجهات مثل ChatGPT، لتسهيل التواصل مع العملاء.
[إعلان 2]
رابط المصدر






تعليق (0)