Vietnam.vn - Nền tảng quảng bá Việt Nam

إن خطر اندلاع حرب نووية بالذكاء الاصطناعي ليس خيالاً علمياً

(CLO) تبدو حرب نووية يُشعلها الذكاء الاصطناعي كفيلم خيال علمي. لكن العديد من أبرز العلماء والسياسيين في العالم ينكرون ذلك.

Công LuậnCông Luận23/03/2025

خطر فقدان السيطرة على الذكاء الاصطناعي

يبدو أن البشرية تتجاهل شبحًا يلوح في الأفق: شبح حرب نووية عالمية ناجمة عن الذكاء الاصطناعي. وقد حذّر منه الأمين العام للأمم المتحدة أنطونيو غوتيريش. لكن حتى الآن، لم تتحد الدول النووية للتفاوض بشأن هذا التهديد الكارثي.

إن خطر الحرب النووية ليس مجرد أسطورة.

يُشكّل التطور السريع للذكاء الاصطناعي خطرًا يتمثل في إمكانية تدخله في عملية إطلاق الأسلحة النووية. صورة توضيحية.

لقد كان هناك منذ فترة طويلة إجماع غير رسمي بين القوى النووية الخمس الكبرى - الولايات المتحدة وروسيا والصين والمملكة المتحدة وفرنسا - على مبدأ "الإنسان في الحلقة"، وهذا يعني أن كل دولة لديها نظام لضمان مشاركة البشر في قرار إطلاق الأسلحة النووية.

لم تُصرّح أيٌّ من القوى الخمس الكبرى بنشرها الذكاء الاصطناعي في أنظمة التحكم بإطلاق الصواريخ النووية. هذا صحيح، ولكنه مُضلِّل، وفقًا للدكتور سونديب واسليكار، رئيس مجموعة الاستشراف الاستراتيجي، وهي منظمة بحثية دولية في مومباي، الهند.

يُستخدم الذكاء الاصطناعي بالفعل للكشف عن التهديدات واختيار الأهداف. تُحلل الأنظمة المُدعّمة بالذكاء الاصطناعي كميات هائلة من البيانات من أجهزة الاستشعار والأقمار الصناعية والرادارات آنيًا، مُحللةً هجمات الصواريخ الواردة ومقترحةً خيارات الرد.

ويقوم المشغل بعد ذلك بفحص التهديد من مصادر مختلفة ويقرر ما إذا كان سيقوم باعتراض الصواريخ المعادية أو شن ضربات انتقامية.

قال سونديب واسليكار: "حاليًا، يتراوح زمن الاستجابة المتاح للمشغلين البشريين بين 10 و15 دقيقة. وبحلول عام 2030، سينخفض ​​هذا الزمن إلى 5 إلى 7 دقائق". وأضاف: "بينما سيتخذ البشر القرارات النهائية، سيتأثرون بتحليلات الذكاء الاصطناعي التنبؤية والتوجيهية. وقد يكون الذكاء الاصطناعي المحرك الرئيسي لقرارات الإطلاق في مطلع ثلاثينيات القرن الحادي والعشرين".

تكمن المشكلة في أن الذكاء الاصطناعي قد يكون مُخطئًا. فخوارزميات كشف التهديدات قد تُشير إلى ضربة صاروخية في حين أنها لا تُحدث شيئًا. قد يكون هذا بسبب أخطاء حاسوبية، أو اختراقات للشبكة، أو عوامل بيئية تُحجب الإشارات. ما لم يتمكن المُشغّلون البشريون من تأكيد الإنذارات الكاذبة من مصادر أخرى خلال دقيقتين أو ثلاث دقائق، فقد يُطلقون ضربات انتقامية.

خطأ صغير جدًا، كارثة ضخمة

من المعروف أن استخدام الذكاء الاصطناعي في العديد من الوظائف المدنية، مثل التنبؤ بالجرائم والتعرف على الوجوه وتشخيص السرطان، يبلغ هامش الخطأ فيه 10%. وفي أنظمة الإنذار المبكر النووي، قد يصل هامش الخطأ إلى حوالي 5%، وفقًا لسونديب واسليكار.

مع تحسّن دقة خوارزميات التعرّف على الصور خلال العقد المقبل، قد ينخفض ​​هامش الخطأ هذا إلى ١-٢٪. ولكن حتى هامش خطأ ١٪ قد يُشعل حربًا نووية عالمية.

إن خطر الحرب النووية ليس مجرد أسطورة.

قد تُحفّز أخطاء الذكاء الاصطناعي قرارات الهجوم أو الردّ على الأسلحة النووية. الصورة: معهد الحرب الحديثة

قد يزداد الخطر خلال العامين أو الثلاثة أعوام القادمة مع ظهور برمجيات خبيثة جديدة قادرة على التهرب من أنظمة كشف التهديدات. ستتكيف هذه البرمجيات لتفادي الكشف، وتحديد الأهداف تلقائيًا ومهاجمتها.

شهدت الحرب الباردة عدة حالات "خطيرة" خلال الحرب الباردة. ففي عام ١٩٨٣، رصد قمر صناعي سوفيتي عن طريق الخطأ خمسة صواريخ أطلقتها الولايات المتحدة. خلص ستانيسلاف بتروف، الضابط في مركز القيادة الروسي "سيبوخوف-١٥"، إلى أن الإنذار كان كاذبًا، ولم يُنبِّه رؤساءه لشن هجوم مضاد.

في عام ١٩٩٥، رصدت محطة رادار أولينيغورسك هجومًا صاروخيًا قبالة سواحل النرويج. وُضعت القوات الاستراتيجية الروسية في حالة تأهب قصوى، وسُلِّمت الحقيبة النووية للرئيس بوريس يلتسين آنذاك. اشتبه في أنها خطأ، فلم يضغط على الزر. وتبين لاحقًا أنها صاروخ علمي . لو استُخدم الذكاء الاصطناعي لتحديد الاستجابة في أيٍّ من الحالتين، لكانت النتائج كارثية.

تستخدم الصواريخ الأسرع من الصوت اليوم الأتمتة التقليدية بدلاً من الذكاء الاصطناعي. يمكنها السفر بسرعات تتراوح بين 5 و25 ماخ، متجنبةً رصد الرادار ومتحكمةً بمسارات طيرانها. تخطط القوى العظمى لتعزيز الصواريخ الأسرع من الصوت بالذكاء الاصطناعي لتحديد الأهداف المتحركة وتدميرها فورًا، مما يُحوّل قرار القتل من البشر إلى الآلات.

هناك أيضًا سباقٌ لتطوير ذكاء اصطناعي عام، مما قد يؤدي إلى نماذج ذكاء اصطناعي تعمل خارج نطاق السيطرة البشرية. عند حدوث ذلك، ستتعلم أنظمة الذكاء الاصطناعي تحسين نفسها وتكرارها، مسيطرةً على عمليات صنع القرار. إذا دُمِج هذا الذكاء الاصطناعي في أنظمة دعم القرار الخاصة بالأسلحة النووية، فستكون الآلات قادرة على إشعال حروب مدمرة.

حان وقت العمل

وإزاء المخاطر المذكورة أعلاه، يرى العديد من الخبراء أن البشرية بحاجة إلى اتفاق شامل بين القوى الكبرى لتقليل خطر الحرب النووية، بما يتجاوز مجرد تكرار شعار "البشر في الدائرة".

وينبغي أن تتضمن هذه الاتفاقية تدابير الشفافية والمساءلة والتعاون؛ والمعايير الدولية للاختبار والتقييم؛ وقنوات الاتصال في حالات الأزمات؛ ومجالس الرقابة الوطنية؛ والقواعد التي تحظر نماذج الذكاء الاصطناعي العدوانية القادرة على تجاوز المشغلين البشريين.

خطر الحرب النووية ليس مجرد صورة ثلاثية الأبعاد لخبير

الأمين العام أنطونيو غوتيريش يحضر حفل تذكاري للسلام في هيروشيما، التي تعرضت لقنبلة ذرية في عام 1945. الصورة: الأمم المتحدة

تُتيح التحولات الجيوسياسية فرصةً لمثل هذا الاتفاق. على سبيل المثال، شارك خبراء بارزون في مجال الذكاء الاصطناعي من الصين والولايات المتحدة في عدد من الحوارات الثنائية حول مخاطر الذكاء الاصطناعي، مما أدى إلى بيان مشترك بين الرئيس الأمريكي السابق جو بايدن والرئيس الصيني شي جين بينغ في نوفمبر/تشرين الثاني الماضي.

يعتبر الملياردير إيلون ماسك من أشد المدافعين عن ضرورة إنقاذ البشرية من المخاطر الوجودية التي يفرضها الذكاء الاصطناعي، وقد يحث الرئيس الأمريكي الحالي دونالد ترامب على تحويل البيان المشترك بين جو بايدن وشي جين بينج إلى معاهدة، وفقًا للدكتور سونديب واسليكار.

يتطلب تحدي الذكاء الاصطناعي النووي أيضًا مشاركة روسيا، وفقًا للدكتور سونديب واسليكار. حتى يناير من هذا العام، رفضت روسيا مناقشة أي تدابير للحد من المخاطر النووية، بما في ذلك التقارب مع الذكاء الاصطناعي، إلا في حالة مناقشة أوكرانيا.

ومع انخراط الرئيس دونالد ترامب في حوار مع الرئيس الروسي فلاديمير بوتن لتحسين العلاقات الثنائية وإنهاء الحرب في أوكرانيا، ربما تكون روسيا الآن منفتحة على المناقشات.

في فبراير/شباط من هذا العام، وفي أعقاب خطاب نائب الرئيس الأمريكي جيه دي فانس في قمة باريس للعمل بشأن الذكاء الاصطناعي، نشر مركز الأمن الأمريكي الجديد (CNAS) أيضًا تقريرًا بعنوان "منع يوم القيامة للذكاء الاصطناعي: المنافسة بين الولايات المتحدة والصين وروسيا في تقاطع الأسلحة النووية والذكاء الاصطناعي".

يحدد التقرير المخاطر الأكثر أهمية التي قد تنجم عن العلاقة بين الذكاء الاصطناعي والطاقة النووية، ويحث الإدارة الأميركية على إنشاء مجموعة شاملة من آليات التخفيف من المخاطر وإدارة الأزمات مع الصين وروسيا.

في سبتمبر من العام الماضي، اعتمدت حوالي 60 دولة، بما فيها الولايات المتحدة الأمريكية، "خطة عمل" لإدارة الاستخدام المسؤول للذكاء الاصطناعي في المجال العسكري، وذلك خلال قمة الذكاء الاصطناعي المسؤول في المجال العسكري (REAIM) التي عُقدت في سيول، كوريا الجنوبية. وكان هذا المؤتمر الثاني من نوعه، بعد المؤتمر الذي عُقد في لاهاي العام الماضي. وتُظهر هذه التحركات أن خطر اندلاع حرب نووية بفعل الذكاء الاصطناعي ليس ضربًا من الخيال العلمي.

من الواضح أن العالم يواجه مشكلة وجودية ملحة بشكل متزايد تتطلب تحركًا حقيقيًا من القوى النووية لضمان "أن كل قرار بشأن استخدام الأسلحة النووية يتخذه الناس، وليس الآلات أو الخوارزميات" - كما دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش.

نجوين خانه


تعليق (0)

يرجى ترك تعليق لمشاركة مشاعرك!

نفس الفئة

كاتدرائية نوتردام في مدينة هوشي منه مضاءة بشكل ساطع للترحيب بعيد الميلاد 2025
فتيات هانوي يرتدين ملابس جميلة في موسم عيد الميلاد
بعد العاصفة والفيضانات، تأمل قرية تيت أقحوان في جيا لاي ألا يكون هناك انقطاع للتيار الكهربائي لإنقاذ النباتات.
تكبدت عاصمة المشمش الأصفر في المنطقة الوسطى خسائر فادحة بعد الكوارث الطبيعية المزدوجة

نفس المؤلف

إرث

شكل

عمل

مقهى دالات يشهد زيادة بنسبة 300٪ في عدد الزبائن لأن مالكه يلعب دور "فيلم فنون قتالية"

الأحداث الجارية

النظام السياسي

محلي

منتج

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC