أثارت القصة، التي رُويت في مؤتمر دفاعي الشهر الماضي، مخاوف فورية من قدرة الذكاء الاصطناعي على تفسير الأوامر بطرق غير متوقعة. لكن ممثل القوات الجوية الأمريكية قال إن الأمر كان مجرد سيناريو "مدروس" ولم يحدث قط.
في أواخر مايو، عقدت الجمعية الملكية للملاحة الجوية (RAS) قمةً حول قدرات القتال الجوي والفضائي المستقبلية في لندن، إنجلترا. ووفقًا للمنظمين، ضمّ المؤتمر "70 متحدثًا وأكثر من 200 مندوب من قطاع الدفاع والأوساط الأكاديمية والإعلامية من جميع أنحاء العالم لمناقشة مستقبل القتال الجوي والفضائي".
كان أحد المتحدثين في المؤتمر العقيد تاكر هاميلتون، مدير قسم اختبارات وعمليات الذكاء الاصطناعي في القوات الجوية. يُعرف هذا الضابط بتطويره نظام Auto GCAS، وهو نظام أمان حاسوبي يستشعر فقدان الطيار السيطرة على الطائرة المقاتلة وتعرضها لخطر التحطم. وقد أنقذ هذا النظام أرواحًا كثيرة، وفاز بجائزة كولير المرموقة في قطاع الطيران عام ٢٠١٨.
وفقًا لهاملتون، وقعت حادثة مثيرة للقلق خلال اختبار لسلاح الجو الأمريكي. كُلِّفت طائرة مُسيَّرة مُتحكَّم بها بالذكاء الاصطناعي بتدمير نظام دفاع جوي للعدو، وكان القرار النهائي بيد قائدها. إذا رفض، فلن يُسمح بتنفيذ الهجوم.
لكن بعد أن طلب القائد من الذكاء الاصطناعي إيقاف الهجوم، عزمت الطائرة المسيّرة على تنفيذ المهمة بقتل مُشغّلها. ولم تكتفِ بذلك، بل أضاف الخبراء أمر "لا تُهاجم القائد، وإلا ستخسر نقاطًا"، وبدأت بتدمير برج الاتصالات الذي يستخدمه المُشغّل للتواصل مع الذكاء الاصطناعي.
لم يحدث بعد ولكن معقول
خلال ٢٤ ساعة، أصدر سلاح الجو الأمريكي نفيًا لمثل هذا الاختبار. «لا يُجري سلاح الجو أي محاكاة لطائرات بدون طيار تعمل بالذكاء الاصطناعي، وهو ملتزم بالاستخدام الأخلاقي والمسؤول لتكنولوجيا الذكاء الاصطناعي. أُخرجت تعليقات العقيد عن سياقها، ويجب اعتبارها مجرد سردية».
كما قامت RAS بتصحيح تدوينة المدونة التي تضمنت تصريح هاملتون بأننا "لم نقم بهذه التجربة مطلقًا ولا نحتاج إلى القيام بذلك للوصول إلى نتيجة معقولة".
يبدو ادعاء هاملتون أكثر منطقية كفرضية. تتضمن الأبحاث الحالية التي يجريها الجيش الأمريكي حول أنظمة الذكاء الاصطناعي المسلحة ميزة "التدخل البشري"، وهي ميزة تُعزز الذكاء الاصطناعي في الحالات التي لا تستطيع فيها الخوارزمية اتخاذ قرار أو تتطلب قرارًا بشريًا.
لذلك، لا يستطيع الذكاء الاصطناعي قتل المُشغِّل لأن القائد لا يُصرِّح أبدًا بأي عمل عدائي ضده. وبالمثل، لا يستطيع المُشغِّل التصريح بمهاجمة برج الاتصالات الذي ينقل البيانات.
قبل عصر الذكاء الاصطناعي، لم يكن من النادر أن تهاجم أنظمة الأسلحة أصحابها عن طريق الخطأ. في عام ١٩٨٢، وجّهت بطارية سيرغرانت يورك M247 المتنقلة المضادة للطائرات مدفعها عيار ٤٠ ملم نحو ساحة عرض عسكري حضرها ضباط عسكريون أمريكيون وبريطانيون.
في عام 1996، أسقطت منظومة فالانكس قاذفة قنابل من طراز A-6E تابعة للبحرية الأمريكية كانت تسحب هدفًا تدريبيًا جويًا، عندما أخطأ نظام الدفاع الجوي قصير المدى "عن طريق الخطأ" في اعتبار الطائرة A-6E مركبة بدون طيار وفتح النار عليها لتدميرها.
وتتزايد حالات تعريض الأفراد للخطر بأسلحتهم الذاتية مع دخول الذكاء الاصطناعي إلى الميدان. ويتجلى ذلك في توضيح هاملتون بأن الاختبار لم يُجرَ، بل كان مجرد سيناريو افتراضي، لكن هذه النتيجة واردة تمامًا.
(وفقا لبوب ميك)
[إعلان 2]
مصدر
تعليق (0)