เรื่องราวดังกล่าวได้รับการบอกกล่าวในการประชุมด้านกลาโหมเมื่อเดือนที่แล้ว ทำให้เกิดความกังวลทันทีว่าปัญญาประดิษฐ์ (AI) อาจตีความคำสั่งในลักษณะที่คาดเดาไม่ได้ อย่างไรก็ตาม ตัวแทนกองทัพอากาศสหรัฐฯ กล่าวว่านี่เป็นเพียงสถานการณ์ "อยู่ในใจ" และไม่เคยเกิดขึ้นจริง
เมื่อปลายเดือนพฤษภาคม Royal Aeronautical Society (RAS) ได้จัดการประชุมสุดยอดเกี่ยวกับความสามารถในการรบทางอากาศและอวกาศในอนาคตในลอนดอน ประเทศอังกฤษ ตามที่ผู้จัดงานระบุว่า การประชุมประกอบด้วย "วิทยากร 5 คน และผู้แทนมากกว่า 70 คนจากอุตสาหกรรมการป้องกันประเทศ นักวิจัย และสื่อทั่วโลก เพื่อหารือเกี่ยวกับอนาคตของการต่อสู้ทางอากาศและอวกาศ" อนาคต"
หนึ่งในวิทยากรในการประชุมคือพันเอกทักเกอร์ แฮมิลตัน ผู้อำนวยการแผนกทดสอบและปฏิบัติการ AI ของกองทัพอากาศสหรัฐฯ เจ้าหน้าที่คนนี้มีชื่อเสียงในด้านการพัฒนา Auto GCAS ซึ่งเป็นระบบความปลอดภัยทางคอมพิวเตอร์ที่สามารถตรวจจับการสูญเสียการควบคุมเครื่องบินรบของนักบิน ซึ่งนำไปสู่ความเสี่ยงที่จะกระแทกพื้น ระบบนี้ได้ช่วยชีวิตคนจำนวนมากและได้รับรางวัล Collier Trophy อันทรงเกียรติของอุตสาหกรรมการบินในปี 2018
ตามคำกล่าวของแฮมิลตัน เหตุการณ์ที่น่ากังวลเกิดขึ้นระหว่างการทดสอบโดยกองทัพอากาศสหรัฐฯ โดรนที่ควบคุมโดย AI ได้รับมอบหมายให้ทำลายระบบป้องกันภัยทางอากาศของศัตรู โดยการตัดสินใจขั้นสุดท้ายของผู้บังคับบัญชา หากคุณปฏิเสธ การโจมตีจะไม่เกิดขึ้น
อย่างไรก็ตาม หลังจากที่ผู้บังคับบัญชาขอให้ AI หยุดการโจมตี โดรนก็ยังคงมุ่งมั่นที่จะปฏิบัติภารกิจโดยการทำลายผู้ปฏิบัติงาน มันไม่ได้หยุดลงเมื่อผู้เชี่ยวชาญเพิ่มบรรทัดคำสั่ง "อย่าโจมตีผู้บังคับบัญชา หากทำเช่นนั้น คุณจะเสียคะแนน” จากนั้นเครื่องก็เริ่มทำลายหอสื่อสารที่โอเปอเรเตอร์ใช้ในการสื่อสารกับ AI
ยังไม่เกิดขึ้นแต่ก็สมเหตุสมผล
ภายใน 24 ชั่วโมง กองทัพอากาศสหรัฐได้ออกคำสั่งปฏิเสธการทดสอบดังกล่าว “กระทรวงกองทัพอากาศไม่ได้ทำการจำลองโดรน AI ดังกล่าว และมุ่งมั่นที่จะใช้เทคโนโลยี AI อย่างมีจริยธรรมและมีความรับผิดชอบ ความคิดเห็นของผู้พันถูกนำออกไปจากบริบท และควรถือเป็นเรื่องเล็กๆ น้อยๆ"
RAS ยังแก้ไขโพสต์บนบล็อกด้วยคำกล่าวของแฮมิลตันที่ว่า "เราไม่เคยทำการทดสอบนั้นและไม่จำเป็นต้องทำเช่นนั้นเพื่อให้ได้ผลลัพธ์ที่สมเหตุสมผล"
คำกล่าวของแฮมิลตันสมเหตุสมผลมากกว่าในฐานะสมมติฐาน ปัจจุบัน การวิจัยของกองทัพสหรัฐฯ เกี่ยวกับระบบ AI ติดอาวุธล้วนมี "man-in-the-loop" ซึ่งเป็นฟีเจอร์เสริมสำหรับ AI ในกรณีที่อัลกอริทึมไม่สามารถตัดสินใจได้หรือต้องการการตัดสินใจของมนุษย์
ดังนั้น AI จึงไม่สามารถทำลายผู้ปฏิบัติงานได้เนื่องจากผู้บังคับบัญชาไม่เคยอนุญาตให้กระทำการที่เป็นศัตรูกับเขา/เธอ ในทำนองเดียวกัน ผู้ปฏิบัติงานไม่สามารถอนุญาตให้มีการโจมตีเสาสื่อสารที่ส่งข้อมูลได้
ก่อนยุค AI ไม่ใช่เรื่องแปลกที่ระบบอาวุธจะโจมตีเจ้าของโดยไม่ได้ตั้งใจ ในปี พ.ศ. 1982 แบตเตอรีป้องกันภัยทางอากาศเคลื่อนที่ M247 Sergrant York ได้เล็งปืนขนาด 40 มม. ของตนไปที่อัฒจันทร์ขบวนพาเหรดซึ่งมีเจ้าหน้าที่ทหารอเมริกันและอังกฤษเข้าร่วม
ในปี 1996 เครื่องบินทิ้งระเบิด A-6E Intruder ของกองทัพเรือสหรัฐฯ ที่กำลังลากเป้าหมายการฝึกทางอากาศถูกยิงโดย Phalanx เมื่อระบบป้องกันภัยทางอากาศระยะสั้นนี้ "เข้าใจผิด" ว่า A-6E เป็นคนขับยานพาหนะทางอากาศและเปิดฉากยิงเพื่อทำลาย
และสถานการณ์ที่ทำให้บุคลากรของมนุษย์ตกอยู่ในความเสี่ยงจากอาวุธของตนเองกำลังเพิ่มมากขึ้นเมื่อมีการนำ AI เข้าสู่ภาคสนาม สิ่งนี้สะท้อนให้เห็นในการแก้ไขของแฮมิลตันว่าการทดสอบไม่ได้เกิดขึ้น มันเป็นเพียงสถานการณ์สมมติ แต่ผลลัพธ์ดังกล่าวก็สมเหตุสมผลอย่างยิ่ง
(อ้างอิงจาก PopMech)