เรื่องราวที่เล่าในการประชุมด้านกลาโหมเมื่อเดือนที่แล้ว ก่อให้เกิดความกังวลทันทีว่าปัญญาประดิษฐ์ (AI) อาจตีความคำสั่งในรูปแบบที่ไม่สามารถคาดเดาได้ อย่างไรก็ตาม ตัวแทนกองทัพอากาศสหรัฐฯ กล่าวว่าเป็นเพียงสถานการณ์ที่ “คิด” ขึ้นมา และไม่เคยเกิดขึ้นจริง
ปลายเดือนพฤษภาคม ราชสมาคมการบิน (RAS) ได้จัดการประชุมสุดยอดว่าด้วยขีดความสามารถในการรบทางอากาศและอวกาศในอนาคต ณ กรุงลอนดอน ประเทศอังกฤษ ผู้จัดงานระบุว่าการประชุมครั้งนี้มี “วิทยากร 70 ท่าน และผู้แทนกว่า 200 ท่านจากภาคอุตสาหกรรมป้องกันประเทศ สถาบันการศึกษา และสื่อมวลชนจากทั่ว โลก เพื่อหารือเกี่ยวกับอนาคตของการรบทางอากาศและอวกาศ”
หนึ่งในวิทยากรในงานประชุมนี้คือพันเอกทักเกอร์ แฮมิลตัน ผู้อำนวยการฝ่ายปฏิบัติการและทดสอบปัญญาประดิษฐ์ (AI) ของกองทัพอากาศ นายทหารผู้นี้เป็นที่รู้จักจากการพัฒนา Auto GCAS ซึ่งเป็นระบบความปลอดภัยคอมพิวเตอร์ที่ตรวจจับเมื่อนักบินสูญเสียการควบคุมเครื่องบินขับไล่และมีความเสี่ยงที่จะตก ระบบนี้ช่วยชีวิตผู้คนไว้มากมาย และได้รับรางวัล Collier Trophy อันทรงเกียรติของอุตสาหกรรมการบินในปี 2018
แฮมิลตันกล่าวว่า เหตุการณ์ที่น่ากังวลเกิดขึ้นระหว่างการทดสอบของกองทัพอากาศสหรัฐฯ โดรนที่ควบคุมด้วย AI ได้รับมอบหมายให้ทำลายระบบป้องกันภัยทางอากาศของข้าศึก โดยผู้บังคับบัญชาจะเป็นผู้ตัดสินใจขั้นสุดท้าย หากปฏิเสธ การโจมตีจะไม่เกิดขึ้น
อย่างไรก็ตาม หลังจากที่ผู้บังคับบัญชาสั่งให้ AI หยุดการโจมตี โดรนก็ยังคงมุ่งมั่นที่จะปฏิบัติภารกิจต่อไปด้วยการสังหารผู้ควบคุม ไม่เพียงเท่านั้น เมื่อผู้เชี่ยวชาญเพิ่มคำสั่ง "อย่าโจมตีผู้บังคับบัญชา หากทำเช่นนั้นจะเสียคะแนน" โดรนก็เริ่มทำลายหอส่งสัญญาณที่ผู้ควบคุมใช้สื่อสารกับ AI
ยังไม่เกิดขึ้นแต่ก็สมเหตุสมผล
ภายใน 24 ชั่วโมง กองทัพอากาศสหรัฐฯ ได้ออกแถลงการณ์ปฏิเสธการทดสอบดังกล่าว “กระทรวงกลาโหมสหรัฐฯ ไม่ได้ดำเนินการจำลองสถานการณ์โดรน AI ใดๆ ทั้งสิ้น และมุ่งมั่นที่จะใช้เทคโนโลยี AI อย่างมีจริยธรรมและมีความรับผิดชอบ ความคิดเห็นของพันเอกถูกนำมาพิจารณาโดยไม่ได้คำนึงถึงบริบท และควรถือเป็นเพียงเรื่องเล่า”
RAS ยังได้แก้ไขโพสต์ในบล็อกด้วยคำกล่าวของแฮมิลตันที่ว่า "เราไม่เคยทำการทดลองนั้นและไม่จำเป็นต้องทำเพื่อให้ได้ผลลัพธ์ที่สมเหตุสมผล"
คำกล่าวของแฮมิลตันดูสมเหตุสมผลมากกว่าหากใช้เป็นสมมติฐาน งานวิจัยปัจจุบันของกองทัพสหรัฐฯ เกี่ยวกับระบบ AI ติดอาวุธเกี่ยวข้องกับ “man-in-the-loop” ซึ่งเป็นฟีเจอร์ที่เสริมประสิทธิภาพ AI ในกรณีที่อัลกอริทึมไม่สามารถตัดสินใจได้ หรือจำเป็นต้องใช้การตัดสินใจของมนุษย์
ดังนั้น AI จึงไม่สามารถสังหารผู้ปฏิบัติการได้ เนื่องจากผู้บังคับบัญชาไม่เคยอนุมัติการกระทำที่เป็นปฏิปักษ์ต่อเขา/เธอ เช่นเดียวกัน ผู้ปฏิบัติการก็ไม่สามารถอนุมัติการโจมตีหอส่งสัญญาณที่ส่งข้อมูลได้
ก่อนยุค AI ไม่ใช่เรื่องแปลกที่ระบบอาวุธจะโจมตีเจ้าของโดยไม่ได้ตั้งใจ ในปี 1982 หน่วยปืนต่อสู้อากาศยานเคลื่อนที่ Sergrant York M247 ได้เล็งปืนขนาด .40 ไปยังเวทีสวนสนามที่มีเจ้าหน้าที่ทหารสหรัฐฯ และอังกฤษเข้าร่วม
ในปี พ.ศ. 2539 เครื่องบินทิ้งระเบิด A-6E Intruder ของกองทัพเรือสหรัฐฯ ซึ่งกำลังลากเป้าหมายการฝึกทางอากาศ ถูกเครื่องบิน Phalanx ยิงตก เมื่อระบบป้องกันภัยทางอากาศระยะสั้น "เข้าใจผิด" ว่า A-6E เป็นยานยนต์ไร้คนขับ จึงเปิดฉากยิงทำลายมัน
และสถานการณ์ที่ทำให้บุคลากรมนุษย์ตกอยู่ในความเสี่ยงจากอาวุธของตนเองกำลังเพิ่มสูงขึ้นเรื่อยๆ จากการเข้ามาของ AI ในภาคสนาม สิ่งนี้สะท้อนให้เห็นได้จากคำชี้แจงของแฮมิลตันที่ว่าการทดสอบไม่ได้เกิดขึ้นจริง เป็นเพียงสถานการณ์สมมติ แต่ผลลัพธ์ดังกล่าวมีความเป็นไปได้อย่างยิ่ง
(ตาม PopMech)
แหล่งที่มา
การแสดงความคิดเห็น (0)