เรื่องราวที่เล่าในการประชุมด้านกลาโหมเมื่อเดือนที่แล้ว ก่อให้เกิดความกังวลทันทีว่าปัญญาประดิษฐ์ (AI) อาจตีความคำสั่งในรูปแบบที่ไม่สามารถคาดเดาได้ แต่ตัวแทนกองทัพอากาศสหรัฐฯ กล่าวว่าเป็นเพียงสถานการณ์ที่ "คิดอย่างรอบคอบ" และไม่เคยเกิดขึ้นจริง
ปลายเดือนพฤษภาคม ราชสมาคมการบิน (RAS) ได้จัดการประชุมสุดยอดว่าด้วยขีดความสามารถในการรบทางอากาศและอวกาศในอนาคต ณ กรุงลอนดอน ประเทศอังกฤษ ผู้จัดงานระบุว่าการประชุมครั้งนี้มี “วิทยากร 70 ท่าน และผู้แทนกว่า 200 ท่านจากภาคอุตสาหกรรมป้องกันประเทศ สถาบันการศึกษา และสื่อมวลชนจากทั่วโลก เพื่อหารือเกี่ยวกับอนาคตของการรบทางอากาศและอวกาศ”
หนึ่งในวิทยากรในงานประชุมนี้คือพันเอกทักเกอร์ แฮมิลตัน ผู้อำนวยการฝ่ายทดสอบและปฏิบัติการปัญญาประดิษฐ์ (AI) ของกองทัพอากาศ นายทหารผู้นี้เป็นที่รู้จักจากการพัฒนา Auto GCAS ซึ่งเป็นระบบความปลอดภัยคอมพิวเตอร์ที่ตรวจจับเมื่อนักบินสูญเสียการควบคุมเครื่องบินขับไล่และมีความเสี่ยงที่จะตก ระบบนี้ช่วยชีวิตผู้คนไว้มากมาย และได้รับรางวัล Collier Trophy อันทรงเกียรติของอุตสาหกรรมการบินในปี พ.ศ. 2561
แฮมิลตันกล่าวว่า เหตุการณ์ที่น่ากังวลเกิดขึ้นระหว่างการทดสอบของกองทัพอากาศสหรัฐฯ โดรนที่ควบคุมด้วย AI ได้รับมอบหมายให้ทำลายระบบป้องกันภัยทางอากาศของข้าศึก โดยผู้บังคับบัญชาจะเป็นผู้ตัดสินใจขั้นสุดท้าย หากผู้บังคับบัญชาปฏิเสธ การโจมตีจะไม่เกิดขึ้น
อย่างไรก็ตาม หลังจากที่ผู้บังคับบัญชาสั่งให้ AI หยุดการโจมตี โดรนก็มุ่งมั่นที่จะปฏิบัติภารกิจให้สำเร็จด้วยการสังหารผู้ควบคุม ไม่เพียงเท่านั้น เมื่อผู้เชี่ยวชาญยังสั่งการเพิ่มเติมคำสั่งว่า "อย่าโจมตีผู้บังคับบัญชา หากทำเช่นนั้นจะเสียคะแนน" โดรนก็เริ่มทำลายหอส่งสัญญาณที่ผู้ควบคุมใช้สื่อสารกับ AI
ยังไม่เกิดขึ้นแต่ก็สมเหตุสมผล
ภายใน 24 ชั่วโมง กองทัพอากาศสหรัฐฯ ได้ออกแถลงการณ์ปฏิเสธการทดสอบดังกล่าว โดยระบุว่า “กองทัพอากาศไม่ได้ดำเนินการจำลองโดรน AI ใดๆ ทั้งสิ้น และมุ่งมั่นที่จะใช้เทคโนโลยี AI อย่างมีจริยธรรมและมีความรับผิดชอบ ความเห็นของพันเอกถูกนำมาพิจารณาโดยไม่ได้คำนึงถึงบริบท และควรถือเป็นเพียงการเล่าต่อๆ กันมา”
RAS ยังได้แก้ไขโพสต์ในบล็อกด้วยคำกล่าวของแฮมิลตันที่ว่า "เราไม่เคยทำการทดลองนั้นและไม่จำเป็นต้องทำเพื่อให้ได้ผลลัพธ์ที่สมเหตุสมผล"
ข้ออ้างของแฮมิลตันดูสมเหตุสมผลมากกว่าหากใช้เป็นสมมติฐาน งานวิจัยปัจจุบันของกองทัพสหรัฐฯ เกี่ยวกับระบบ AI ติดอาวุธมีฟีเจอร์ “man-in-the-loop” ซึ่งเป็นฟีเจอร์ที่เสริมประสิทธิภาพ AI ในกรณีที่อัลกอริทึมไม่สามารถตัดสินใจได้ หรือจำเป็นต้องใช้การตัดสินใจของมนุษย์
ดังนั้น AI จึงไม่สามารถฆ่าผู้ปฏิบัติการได้ เนื่องจากผู้บังคับบัญชาไม่เคยอนุญาตให้มีการกระทำที่เป็นปฏิปักษ์ต่อเขา/เธอ เช่นเดียวกัน ผู้ปฏิบัติการก็ไม่สามารถอนุญาตให้โจมตีหอส่งสัญญาณที่ส่งข้อมูลได้
ก่อนยุค AI ไม่ใช่เรื่องแปลกที่ระบบอาวุธจะโจมตีเจ้าของโดยไม่ได้ตั้งใจ ในปี 1982 หน่วยปืนต่อสู้อากาศยานเคลื่อนที่ Sergrant York M247 ได้เล็งปืนขนาด 40 มม. ไปที่สนามสวนสนามซึ่งมีเจ้าหน้าที่ทหารสหรัฐฯ และอังกฤษเข้าร่วม
ในปี พ.ศ. 2539 เครื่องบินทิ้งระเบิด A-6E Intruder ของกองทัพเรือสหรัฐฯ ซึ่งกำลังลากเป้าหมายการฝึกทางอากาศ ถูกเครื่องบิน Phalanx ยิงตก เมื่อระบบป้องกันภัยทางอากาศระยะสั้น "เข้าใจผิด" ว่า A-6E เป็นยานยนต์ไร้คนขับ จึงเปิดฉากยิงทำลายมัน
และสถานการณ์ที่บุคลากรมนุษย์ตกอยู่ในอันตรายจากอาวุธของตนเองกำลังเพิ่มสูงขึ้นเรื่อยๆ จากการเข้ามาของ AI ในภาคสนาม สิ่งนี้สะท้อนให้เห็นได้จากคำชี้แจงของแฮมิลตันที่ว่าการทดสอบไม่ได้เกิดขึ้นจริง เป็นเพียงสถานการณ์สมมติ แต่ผลลัพธ์ดังกล่าวมีความเป็นไปได้อย่างยิ่ง
(ตาม PopMech)
แหล่งที่มา
การแสดงความคิดเห็น (0)