مخاطر فقدان السيطرة على الذكاء الاصطناعي
يبدو أن البشرية تتجاهل شبحًا يلوح في الأفق. إنه شبح حرب نووية عالمية ناجمة عن الذكاء الاصطناعي. وقد حذّر منه الأمين العام للأمم المتحدة أنطونيو غوتيريش. لكن حتى الآن، لم تتحد الدول النووية للتفاوض بشأن هذا التهديد الكارثي.
يُشكّل التطور السريع للذكاء الاصطناعي خطرًا يتمثل في إمكانية تدخله في عملية إطلاق الأسلحة النووية. صورة توضيحية.
لقد كان هناك منذ فترة طويلة إجماع غير رسمي بين القوى النووية الخمس الكبرى - الولايات المتحدة وروسيا والصين والمملكة المتحدة وفرنسا - على مبدأ "البشر في الحلقة"، وهذا يعني أن كل دولة لديها نظام لضمان مشاركة البشر في قرار إطلاق الأسلحة النووية.
لم تُصرّح أيٌّ من القوى الخمس الكبرى بنشرها الذكاء الاصطناعي في أنظمة التحكم بإطلاق الصواريخ النووية. هذا صحيح، ولكنه مُضلِّل، وفقًا للدكتور سونديب واسليكار، رئيس مجموعة الاستشراف الاستراتيجي، وهي منظمة بحثية دولية في مومباي، الهند.
يُستخدم الذكاء الاصطناعي بالفعل للكشف عن التهديدات واختيار الأهداف. تُحلل الأنظمة المُدعّمة بالذكاء الاصطناعي كميات هائلة من البيانات من أجهزة الاستشعار والأقمار الصناعية والرادارات آنيًا، مُحللةً هجمات الصواريخ الواردة ومقترحةً خيارات الرد.
ويقوم المشغل بعد ذلك بفحص التهديد من مصادر مختلفة ويقرر ما إذا كان سيقوم باعتراض الصواريخ المعادية أو شن ضربات انتقامية.
قال سونديب واسليكار: "يتراوح وقت الاستجابة المتاح حاليًا للمشغلين بين 10 و15 دقيقة. وبحلول عام 2030، سينخفض هذا الوقت إلى 5 إلى 7 دقائق". وأضاف: "بينما سيتخذ البشر القرارات النهائية، سيتأثرون بتحليلات الذكاء الاصطناعي التنبؤية والتوجيهية. وقد يكون الذكاء الاصطناعي المحرك الرئيسي لقرارات الإطلاق في مطلع ثلاثينيات القرن الحادي والعشرين".
تكمن المشكلة في أن الذكاء الاصطناعي قد يكون مُخطئًا. فخوارزميات كشف التهديدات قد تُشير إلى ضربة صاروخية في حين أنها لا تُحدث أي ضربة. قد يكون هذا بسبب أخطاء حاسوبية، أو اختراقات في الشبكة، أو عوامل بيئية تُعيق الإشارات. ما لم يتمكن المُشغّلون البشريون من تأكيد الإنذارات الكاذبة من مصادر أخرى خلال دقيقتين أو ثلاث دقائق، فقد يُطلقون ضربات انتقامية.
خطأ صغير جدًا، كارثة ضخمة
من المعروف أن استخدام الذكاء الاصطناعي في العديد من الوظائف المدنية، مثل التنبؤ بالجرائم والتعرف على الوجوه وتشخيص السرطان، يبلغ هامش الخطأ فيه 10%. وفي أنظمة الإنذار المبكر النووي، قد يصل هامش الخطأ إلى حوالي 5%، وفقًا لسونديب واسليكار.
مع تحسّن دقة خوارزميات التعرّف على الصور خلال العقد المقبل، قد ينخفض هامش الخطأ هذا إلى 1-2%. ولكن حتى هامش خطأ بنسبة 1% قد يُشعل حربًا نووية عالمية.
قد تُحفّز أخطاء الذكاء الاصطناعي قرارات شنّ ضربة نووية أو الردّ عليها. الصورة: معهد الحرب الحديثة
قد يزداد الخطر خلال العامين أو الثلاثة أعوام القادمة مع ظهور برمجيات خبيثة جديدة قادرة على تجاوز أنظمة كشف التهديدات. ستتكيف هذه البرمجيات لتفادي الكشف، وتحديد الأهداف تلقائيًا، ومهاجمتها تلقائيًا.
شهدت الحرب الباردة عدة حالات "خطيرة" خلال الحرب الباردة. ففي عام ١٩٨٣، رصد قمر صناعي سوفيتي عن طريق الخطأ خمسة صواريخ أطلقتها الولايات المتحدة. استنتج ستانيسلاف بتروف، الضابط في مركز قيادة سيبوخوف-١٥ الروسي، أن الإنذار كان كاذبًا، ولم يُنبِّه رؤساءه لشن هجوم مضاد.
في عام ١٩٩٥، رصدت محطة رادار أولينيغورسك هجومًا صاروخيًا قبالة سواحل النرويج. وُضعت القوات الاستراتيجية الروسية في حالة تأهب قصوى، وتسلم الرئيس الروسي آنذاك بوريس يلتسين الحقيبة النووية. اشتبه في أنها خطأ، فلم يضغط على الزر. وتبين لاحقًا أنها صاروخ علمي . لو استُخدم الذكاء الاصطناعي لتحديد الاستجابة في أيٍّ من الحالتين، لكانت النتائج كارثية.
تستخدم الصواريخ الأسرع من الصوت اليوم الأتمتة التقليدية بدلاً من الذكاء الاصطناعي. يمكنها السفر بسرعات تتراوح بين 5 و25 ماخ، متجنبةً كشف الرادار ومتحكمةً بمسارات طيرانها. تخطط القوى العظمى لتعزيز الصواريخ الأسرع من الصوت بالذكاء الاصطناعي لتحديد الأهداف المتحركة وتدميرها فورًا، مما يُحوّل قرار القتل من البشر إلى الآلات.
هناك أيضًا سباقٌ لتطوير ذكاء اصطناعي عام، مما قد يؤدي إلى نماذج ذكاء اصطناعي تعمل خارج نطاق السيطرة البشرية. عند حدوث ذلك، ستتعلم أنظمة الذكاء الاصطناعي تحسين نفسها وتكرارها، مسيطرةً على عمليات صنع القرار. إذا دُمِج هذا الذكاء الاصطناعي في أنظمة دعم القرار الخاصة بالأسلحة النووية، فستكون الآلات قادرة على بدء حروب مدمرة.
حان وقت العمل
وإزاء المخاطر المذكورة أعلاه، يعتقد العديد من الخبراء أن البشرية بحاجة إلى اتفاق شامل بين القوى الكبرى لتقليل خطر الحرب النووية، بما يتجاوز مجرد تكرار شعار "البشر في الدائرة".
وينبغي أن تتضمن هذه الاتفاقية تدابير الشفافية والمساءلة والتعاون؛ والمعايير الدولية للاختبار والتقييم؛ وقنوات الاتصال في حالات الأزمات؛ ومجالس الرقابة الوطنية؛ والقواعد التي تحظر نماذج الذكاء الاصطناعي العدوانية القادرة على تجاوز المشغلين البشريين.
الأمين العام أنطونيو غوتيريش يحضر حفل تذكاري للسلام في هيروشيما، التي تعرضت لقنبلة ذرية في عام 1945. الصورة: الأمم المتحدة
تُتيح التحولات الجيوسياسية فرصةً لمثل هذا الاتفاق. على سبيل المثال، شارك خبراء بارزون في مجال الذكاء الاصطناعي من الصين والولايات المتحدة في عدد من الحوارات الثنائية حول مخاطر الذكاء الاصطناعي، مما أدى إلى بيان مشترك للرئيس الأمريكي السابق جو بايدن والرئيس الصيني شي جين بينغ في نوفمبر/تشرين الثاني الماضي.
ويعد الملياردير إيلون ماسك من المؤيدين القويين لإنقاذ البشرية من المخاطر الوجودية التي يفرضها الذكاء الاصطناعي، وقد يحث ماسك الرئيس الأمريكي الحالي دونالد ترامب على تحويل البيان المشترك بين جو بايدن وشي جين بينج إلى معاهدة، وفقًا للدكتور سونديب واسليكار.
يتطلب تحدي الذكاء الاصطناعي النووي أيضًا مشاركة روسيا، وفقًا للدكتور سونديب واسليكار. حتى يناير من هذا العام، رفضت روسيا مناقشة أي تدابير للحد من المخاطر النووية، بما في ذلك التقارب مع الذكاء الاصطناعي، إلا إذا أُثيرت مسألة أوكرانيا.
ومع انخراط الرئيس دونالد ترامب في حوار مع الرئيس الروسي فلاديمير بوتن لتحسين العلاقات الثنائية وإنهاء الحرب في أوكرانيا، ربما تكون روسيا الآن منفتحة على المناقشات.
في فبراير/شباط من هذا العام، وفي أعقاب خطاب نائب الرئيس الأمريكي جيه دي فانس في قمة باريس للعمل بشأن الذكاء الاصطناعي، أصدر مركز الأمن الأمريكي الجديد (CNAS) أيضًا تقريرًا بعنوان "منع يوم القيامة للذكاء الاصطناعي: المنافسة بين الولايات المتحدة والصين وروسيا في تقاطع الأسلحة النووية والذكاء الاصطناعي".
يحدد التقرير المخاطر الأكثر أهمية التي قد تنجم عن العلاقة بين الذكاء الاصطناعي والطاقة النووية، ويحث الإدارة الأميركية على إنشاء مجموعة شاملة من آليات التخفيف من المخاطر وإدارة الأزمات مع الصين وروسيا.
في سبتمبر/أيلول من العام الماضي، اعتمدت حوالي 60 دولة، بما فيها الولايات المتحدة الأمريكية، "خطة عمل" لإدارة الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري، وذلك خلال قمة "الذكاء الاصطناعي المسؤول في المجال العسكري" (REAIM) التي عُقدت في سيول، كوريا الجنوبية. وكان هذا المؤتمر الثاني من نوعه، بعد مؤتمر عُقد في لاهاي العام الماضي. وتُظهر هذه التحركات أن خطر اندلاع حرب نووية بفعل الذكاء الاصطناعي ليس ضربًا من الخيال العلمي.
من الواضح أن العالم يواجه مشكلة وجودية ملحة بشكل متزايد تتطلب تحركًا حقيقيًا من القوى النووية لضمان أن "كل قرار بشأن استخدام الأسلحة النووية يتخذه الناس، وليس الآلات أو الخوارزميات" - كما دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش.
نجوين خانه
تعليق (0)