الصورة المعقدة لروبوتات الذكاء الاصطناعي القاتلة
إن السماح للذكاء الاصطناعي بالسيطرة على أنظمة الأسلحة قد يعني تحديد الأهداف ومهاجمتها وتدميرها دون تدخل بشري. وهذا يثير تساؤلات قانونية وأخلاقية خطيرة.
وأكد وزير الخارجية النمساوي ألكسندر شالينبيرج على خطورة الوضع، قائلاً: "هذه هي لحظة أوبنهايمر لجيلنا".
بدأت الروبوتات والأسلحة التي تعتمد على الذكاء الاصطناعي تُستخدم على نطاق واسع في جيوش العديد من البلدان. الصورة: فوربس
في الواقع، أصبح مدى "خروج المارد من القمقم" سؤالا ملحا، مع استخدام الطائرات بدون طيار والذكاء الاصطناعي على نطاق واسع من قبل الجيوش في جميع أنحاء العالم.
وقال ويلسون جونز، محلل الدفاع في شركة جلوبال داتا: "إن استخدام الطائرات بدون طيار في الصراعات الحديثة من قبل روسيا وأوكرانيا، واستخدام الطائرات بدون طيار من قبل الولايات المتحدة في عمليات الضربات المستهدفة في أفغانستان وباكستان، وكما تم الكشف عنه مؤخرًا في الشهر الماضي، كجزء من برنامج لافندر الإسرائيلي، يُظهر كيف يتم استخدام قدرات معالجة المعلومات للذكاء الاصطناعي بشكل نشط من قبل الجيوش العالمية لتعزيز قوتها الهجومية".
توصلت تحقيقات أجراها مكتب الصحافة الاستقصائية الحربية في لندن إلى أن نظام الذكاء الاصطناعي "لافندر" التابع للجيش الإسرائيلي يتمتع بمعدل دقة يبلغ 90% في تحديد هوية الأفراد المرتبطين بحماس، وهو ما يعني أن 10% منهم لم يكونوا كذلك. ويؤدي هذا أيضًا إلى مقتل المدنيين بسبب قدرات الذكاء الاصطناعي على تحديد الهوية واتخاذ القرار.
تهديد للأمن العالمي
ويسلط استخدام الذكاء الاصطناعي بهذه الطريقة الضوء على الحاجة إلى إدارة التكنولوجيا في أنظمة الأسلحة.
"إن استخدام الذكاء الاصطناعي في أنظمة الأسلحة، وخاصة عند استخدامه للاستهداف، يثير أسئلة أساسية حول من نحن كبشر وعلاقتنا بالحرب، وبشكل أكثر تحديدًا افتراضاتنا حول كيفية استخدامنا للعنف في الصراع المسلح،" أوضح الدكتور ألكسندر بلانشارد، زميل أبحاث أول في برنامج حوكمة الذكاء الاصطناعي في معهد ستوكهولم الدولي لأبحاث السلام (SIPRI)، وهي مجموعة بحثية مستقلة تركز على الأمن العالمي، لـ Army Technology.
يمكن لأنظمة الذكاء الاصطناعي، عند استخدامها في بيئات فوضوية، أن تتصرف بشكل غير متوقع وقد تفشل في تحديد الأهداف بدقة. الصورة: MES
كيف يُغيّر الذكاء الاصطناعي طريقة اختيار الجيش للأهداف وتطبيقه القوة عليها؟ تُثير هذه التغييرات بدورها مجموعةً من التساؤلات القانونية والأخلاقية والعملياتية. وتُعدّ الإنسانية أبرز المخاوف، كما أضاف الدكتور بلانشارد.
وأوضح خبير معهد ستوكهولم لأبحاث السلام أن "كثيرون يشعرون بالقلق من أن الأنظمة المستقلة قد تعرض المدنيين وغيرهم ممن يحميهم القانون الدولي لخطر أكبر من الأذى، وذلك اعتمادا على كيفية تصميمها واستخدامها". "ويرجع ذلك إلى أن أنظمة الذكاء الاصطناعي، وخاصة عند استخدامها في بيئات فوضوية، قد تتصرف بشكل غير متوقع وقد تفشل في تحديد الأهداف ومهاجمة المدنيين بدقة، أو تحديد المقاتلين غير المشاركين في القتال."
وفي تفصيله لهذه القضية، أشار محلل الدفاع في شركة جلوبال داتا، ويلسون جونز، إلى أن مسألة كيفية تحديد الذنب يمكن أن تكون موضع تساؤل.
وقال السيد جونز: "بموجب قوانين الحرب الحالية، هناك مفهوم المسؤولية القيادية". هذا يعني أن الضابط أو الجنرال أو أي قائد آخر مسؤول قانونيًا عن أفعال القوات الخاضعة لقيادته. إذا ارتكبت القوات جرائم حرب، فإن الضابط مسؤول عنها حتى لو لم يأمر بها، ويقع عليه عبء الإثبات لإثبات بذله كل ما في وسعه لمنع جرائم الحرب.
مع أنظمة الذكاء الاصطناعي، يُعقّد هذا الأمور. هل فني تكنولوجيا المعلومات مسؤول؟ أم مصمم النظام؟ الأمر ليس واضحًا. وإذا لم يكن واضحًا، فسيُشكّل ذلك خطرًا أخلاقيًا إذا اعتقد الفاعلون أن أفعالهم لا تحميها القوانين السارية، كما أكّد جونز.
جندي أمريكي يقوم بدورية مع كلب روبوت. الصورة: فوربس
اتفاقيات الحد من الأسلحة هناك العديد من الاتفاقيات الدولية الكبرى التي تحد وتنظم بعض استخدامات الأسلحة. هناك حظر على الأسلحة الكيميائية، ومعاهدات لمنع انتشار الأسلحة النووية، واتفاقية الأسلحة التقليدية، التي تحظر أو تقيد استخدام أسلحة محددة يُعتقد أنها تسبب معاناة غير ضرورية أو غير مبررة للمتحاربين أو تؤثر على المدنيين بشكل عشوائي.
يقول المحلل الدفاعي ويلسون جونز: "إن السيطرة على الأسلحة النووية تتطلب عقودًا من التعاون الدولي والمعاهدات اللاحقة لتكون قابلة للتنفيذ". حتى ذلك الحين، واصلنا إجراء التجارب في الغلاف الجوي حتى تسعينيات القرن الماضي. وكان من أهم أسباب نجاح الانتشار النووي التعاون بين الولايات المتحدة والاتحاد السوفيتي في ظل النظام العالمي ثنائي القطب. لم يعد هذا التعاون قائمًا، وأصبحت التكنولوجيا التي تُنتج الذكاء الاصطناعي متاحةً للعديد من الدول أكثر من الطاقة النووية.
يجب أن تجمع معاهدة ملزمة جميع الأطراف المعنية على طاولة المفاوضات للموافقة على عدم استخدام أداة تزيد من قوتها العسكرية. من غير المرجح أن ينجح هذا لأن الذكاء الاصطناعي قادر على تحسين الفعالية العسكرية بتكلفة مالية ومادية ضئيلة.
التوقعات الجيوسياسية الحالية
ورغم أن البلدان في الأمم المتحدة أقرت بضرورة الاستخدام العسكري المسؤول للذكاء الاصطناعي، إلا أن هناك الكثير من العمل الذي يتعين القيام به.
وقالت لورا بيترون، المحللة الرئيسية في جلوبال داتا، لموقع آرمي تكنولوجي: "بدون إطار تنظيمي واضح، تظل هذه الادعاءات طموحة إلى حد كبير". "وليس من المستغرب أن ترغب بعض البلدان في الاحتفاظ بسيادتها عند اتخاذ القرارات بشأن مسائل الدفاع الداخلي والأمن الوطني، وخاصة في ظل مناخ التوترات الجيوسياسية الحالي."
وأضافت السيدة بيترون أنه في حين أن قانون الذكاء الاصطناعي للاتحاد الأوروبي يحدد بعض المتطلبات لأنظمة الذكاء الاصطناعي، فإنه لا يتناول أنظمة الذكاء الاصطناعي للأغراض العسكرية.
وأضافت: "أعتقد أنه على الرغم من هذا الاستبعاد، فإن قانون الذكاء الاصطناعي يمثل جهدًا مهمًا لإنشاء إطار عمل طال انتظاره لتطبيقات الذكاء الاصطناعي، والذي يمكن أن يؤدي إلى درجة معينة من التوحيد للمعايير ذات الصلة في المستقبل". "سيكون هذا التوحيد مهمًا أيضًا للذكاء الاصطناعي في المجال العسكري."
نجوين خانه
[إعلان 2]
المصدر: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
تعليق (0)