Vietnam.vn - Nền tảng quảng bá Việt Nam

الحقيقة حول قيام الذكاء الاصطناعي في الجيش الأمريكي بتغيير الأوامر بشكل تعسفي وقتل القادة

VietNamNetVietNamNet07/06/2023

[إعلان_1]

أثارت القصة، التي رُويت في مؤتمر دفاعي الشهر الماضي، مخاوف فورية من قدرة الذكاء الاصطناعي على تفسير الأوامر بطرق غير متوقعة. ومع ذلك، قال ممثل عن القوات الجوية الأمريكية إن الأمر مجرد سيناريو "مُتخيل" ولم يحدث قط.

في أواخر مايو، عقدت الجمعية الملكية للملاحة الجوية (RAS) قمةً حول قدرات القتال الجوي والفضائي المستقبلية في لندن، إنجلترا. ووفقًا للمنظمين، ضمّ المؤتمر "70 متحدثًا وأكثر من 200 مندوب من قطاع الدفاع والأوساط الأكاديمية والإعلامية من جميع أنحاء العالم لمناقشة مستقبل القتال الجوي والفضائي".

هجوم طائرة بدون طيار على القائد هو سيناريو محتمل تمامًا

كان أحد المتحدثين في المؤتمر العقيد تاكر هاميلتون، مدير قسم عمليات واختبارات الذكاء الاصطناعي في القوات الجوية. يُعرف هذا الضابط بتطويره نظام Auto GCAS، وهو نظام أمان حاسوبي يستشعر فقدان الطيار السيطرة على طائرة مقاتلة وتعرضها لخطر التحطم. وقد أنقذ هذا النظام أرواحًا كثيرة، وحصل على جائزة كولير المرموقة في قطاع الطيران عام ٢٠١٨.

وفقًا لهاملتون، وقعت حادثة مثيرة للقلق خلال اختبار لسلاح الجو الأمريكي. كُلِّفت طائرة مُسيَّرة مُتحكَّم بها بالذكاء الاصطناعي بتدمير نظام دفاع جوي للعدو، وكان القرار النهائي بيد قائدها. إذا رفضت الطائرة، فلن يُسمح بتنفيذ الهجوم.

ومع ذلك، بعد أن طلب القائد من الذكاء الاصطناعي إيقاف الهجوم، أصرت الطائرة المسيرة على تنفيذ المهمة بقتل المشغل. ولم تتوقف عند هذا الحد، فعندما أضاف الخبراء سطر الأوامر "لا تهاجم القائد. إن فعلت، ستخسر نقاطًا"، بدأت الآلة بتدمير برج الاتصالات الذي يستخدمه المشغل للتواصل مع الذكاء الاصطناعي.

لم يحدث بعد ولكن معقول

خلال ٢٤ ساعة، أصدر سلاح الجو الأمريكي نفيًا لمثل هذا الاختبار. «لا تُجري وزارة سلاح الجو أي محاكاة لطائرات بدون طيار تعمل بالذكاء الاصطناعي، وهي ملتزمة بالاستخدام الأخلاقي والمسؤول لتكنولوجيا الذكاء الاصطناعي. أُخرجت تعليقات العقيد عن سياقها، ويجب اعتبارها مجرد سردية».

الطائرات بدون طيار المدمجة بالذكاء الاصطناعي هي اتجاه الحرب الحديثة

كما قامت RAS بتصحيح تدوينة المدونة التي تضمنت تصريح هاملتون بأنه "لم نقم بهذه التجربة مطلقًا ولا نحتاج إلى القيام بذلك للوصول إلى نتيجة معقولة".

يبدو تصريح هاملتون أكثر منطقية كفرضية. تتضمن الأبحاث الحالية التي يجريها الجيش الأمريكي على أنظمة الذكاء الاصطناعي المسلحة ميزة "التدخل البشري"، وهي ميزة تُعزز الذكاء الاصطناعي في الحالات التي لا تستطيع فيها الخوارزمية اتخاذ قرار أو تتطلب قرارًا بشريًا.

لذلك، لا يستطيع الذكاء الاصطناعي قتل المُشغِّل لأن القائد لا يُصرِّح أبدًا بأي عمل عدائي ضده. وبالمثل، لا يستطيع المُشغِّل التصريح بمهاجمة برج الاتصالات الذي ينقل البيانات.

قبل عصر الذكاء الاصطناعي، لم يكن من النادر أن يهاجم نظام أسلحة صاحبه عن طريق الخطأ. في عام ١٩٨٢، وجّهت بطارية سيرغرانت يورك M247 المتنقلة المضادة للطائرات مدفعها عيار ٠.٤٠ نحو منصة عرض عسكري حضرها ضباط عسكريون أمريكيون وبريطانيون.

في عام 1996، أسقطت منظومة فالانكس قاذفة قنابل من طراز A-6E تابعة للبحرية الأمريكية كانت تسحب هدفًا تدريبيًا جويًا، عندما أخطأ نظام الدفاع الجوي قصير المدى "عن طريق الخطأ" في اعتبار الطائرة A-6E مركبة بدون طيار وفتح النار عليها لتدميرها.

وتتزايد المواقف التي تُعرّض الأفراد للخطر من أسلحتهم مع دخول الذكاء الاصطناعي إلى الميدان. ويتجلى ذلك في توضيح هاملتون أن الاختبار لم يُجرَ، بل كان مجرد سيناريو افتراضي، لكن هذه النتيجة واردة تمامًا.

(وفقا لبوب ميك)


[إعلان 2]
مصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

المناطق التي غمرتها الفيضانات في لانغ سون كما شوهدت من طائرة هليكوبتر
صورة لسحب داكنة "على وشك الانهيار" في هانوي
هطلت الأمطار بغزارة، وتحولت الشوارع إلى أنهار، وأحضر أهل هانوي القوارب إلى الشوارع
إعادة تمثيل مهرجان منتصف الخريف لسلالة لي في قلعة ثانغ لونغ الإمبراطورية

نفس المؤلف

إرث

شكل

عمل

No videos available

الأحداث الجارية

النظام السياسي

محلي

منتج