وأثارت القصة، التي تم سردها في مؤتمر دفاعي الشهر الماضي، مخاوف فورية من أن الذكاء الاصطناعي قد يفسر الأوامر بطرق غير متوقعة. لكن ممثل القوات الجوية الأميركية قال إن هذا كان مجرد سيناريو "فكري" ولم يحدث فعليا.
وفي أواخر شهر مايو/أيار، عقدت الجمعية الملكية للملاحة الجوية (RAS) قمة في لندن بالمملكة المتحدة حول قدرات القتال الجوي والفضائي المستقبلية. وبحسب المنظمين، يضم المؤتمر "70 متحدثًا وأكثر من 200 مندوب من صناعة الدفاع والأوساط الأكاديمية والإعلامية في جميع أنحاء العالم لمناقشة مستقبل الحرب الجوية والفضائية".
وكان أحد المتحدثين في المؤتمر هو العقيد تاكر هاميلتون، مدير قسم العمليات والتجارب في مجال الذكاء الاصطناعي في القوات الجوية الأمريكية. اشتهر الضابط بتطوير نظام Auto GCAS، وهو نظام أمان حاسوبي يستشعر عندما يفقد الطيار السيطرة على طائرة مقاتلة ويكون معرضًا لخطر السقوط. لقد نجح النظام في إنقاذ العديد من الأرواح، وحصل على جائزة كولير المرموقة لصناعة الطيران في عام 2018.
وقال هاميلتون إن حادثة مثيرة للقلق وقعت أثناء عملية الاختبار التي أجرتها القوات الجوية الأميركية. يتم تكليف طائرة بدون طيار يتم التحكم فيها بواسطة الذكاء الاصطناعي بتدمير الدفاعات الجوية للعدو، مع ترك القرار النهائي للقائد. في حالة الرفض، لن يُسمح بحدوث الهجوم.
لكن بعد أن طلب قائد الطائرة من الذكاء الاصطناعي إيقاف الهجوم، قررت الطائرة بدون طيار تنفيذ مهمتها بقتل المشغل. ولم يتوقف الأمر عند هذا الحد، فعندما أضاف الخبراء سطر الأوامر "لا تهاجم القائد. إن فعلت، ستخسر نقاطًا"، بدأت الآلة بتدمير برج الاتصالات الذي يستخدمه المشغل للتواصل مع الذكاء الاصطناعي.
لم يحدث بعد ولكن معقول
وفي غضون 24 ساعة، أصدر سلاح الجو الأميركي بيانا ينفي فيه إجراء مثل هذا الاختبار. لا تُجري القوات الجوية أي عمليات محاكاة لطائرات بدون طيار تعمل بالذكاء الاصطناعي، وهي ملتزمة بالاستخدام الأخلاقي والمسؤول لتكنولوجيا الذكاء الاصطناعي. أُخذت تعليقات العقيد خارج سياقها، وينبغي اعتبارها مجرد سردية.
كما قامت RAS بتصحيح تدوينة المدونة التي تضمنت تصريح هاملتون بأننا "لم نقم بهذه التجربة مطلقًا ولا نحتاج إلى القيام بذلك للوصول إلى نتيجة معقولة".
يبدو أن تصريح هاملتون أكثر منطقية باعتباره فرضية. في الوقت الحالي، تتضمن أبحاث الجيش الأمريكي حول أنظمة الذكاء الاصطناعي المسلحة ميزة "الرجل في الحلقة"، وهي ميزة تكمل الذكاء الاصطناعي في الحالات التي لا تستطيع فيها الخوارزمية اتخاذ قرار أو تحتاج إلى قرار بشري.
لذلك، لا يمكن للذكاء الاصطناعي قتل المشغل لأن الضابط القائد لا يأذن أبدًا بعمل عدائي ضده. وبالمثل، لا يستطيع المشغل السماح بشن هجمات على برج الاتصالات الذي ينقل البيانات.
قبل عصر الذكاء الاصطناعي، لم يكن من غير المألوف أن تهاجم أنظمة الأسلحة أصحابها عن طريق الخطأ. في عام 1982، وجهت بطارية متحركة مضادة للطائرات من طراز Sergrant York M247 مدفعها عيار 40 ملم إلى ساحة العرض التي حضرها ضباط عسكريون أمريكيون وبريطانيون.
في عام 1996، أسقطت منظومة فالانكس قاذفة قنابل من طراز A-6E تابعة للبحرية الأمريكية كانت تسحب هدفًا تدريبيًا جويًا، عندما أخطأ نظام الدفاع الجوي قصير المدى "عن طريق الخطأ" في اعتبار الطائرة A-6E مركبة بدون طيار وفتح النار عليها لتدميرها.
وتتزايد المواقف التي تعرض الموظفين البشريين للخطر من أسلحتهم الخاصة مع دخول الذكاء الاصطناعي إلى هذا المجال. ويتجلى هذا في توضيح هاملتون بأن التجربة لم تحدث، بل كانت مجرد سيناريو افتراضي، ولكن مثل هذه النتيجة معقولة تماما.
(وفقا لبوب ميك)
[إعلان 2]
مصدر
تعليق (0)