เรื่องราวที่เล่าขานในงานประชุมด้านการป้องกันประเทศเมื่อเดือนที่แล้ว ทำให้เกิดความกังวลทันทีว่าปัญญาประดิษฐ์ (AI) อาจตีความคำสั่งในรูปแบบที่ไม่สามารถคาดเดาได้ อย่างไรก็ตาม ตัวแทนกองทัพอากาศสหรัฐฯ กล่าวว่านี่เป็นเพียง "สถานการณ์ที่คิดขึ้น" เท่านั้น และไม่เคยเกิดขึ้นจริง
ในช่วงปลายเดือนพฤษภาคม Royal Aeronautical Society (RAS) จัดการประชุมสุดยอดเกี่ยวกับศักยภาพการรบทางอากาศและอวกาศในอนาคตที่ลอนดอน สหราชอาณาจักร ตามที่ผู้จัดงานได้กล่าวไว้ การประชุมครั้งนี้จะมี "วิทยากร 70 คนและผู้แทนมากกว่า 200 คนจากอุตสาหกรรมป้องกันประเทศ สถาบันการศึกษา และสื่อมวลชนทั่วโลก เพื่อหารือเกี่ยวกับอนาคตของสงครามทางอากาศและอวกาศ"
หนึ่งในวิทยากรในงานประชุมคือพันเอกทักเกอร์ แฮมิลตัน ผู้อำนวยการฝ่ายปฏิบัติการและการทดลอง AI ของกองทัพอากาศสหรัฐฯ เจ้าหน้าที่คนดังกล่าวเป็นที่รู้จักจากการพัฒนา Auto GCAS ซึ่งเป็นระบบความปลอดภัยด้วยคอมพิวเตอร์ที่สามารถตรวจจับเมื่อนักบินสูญเสียการควบคุมเครื่องบินขับไล่และมีความเสี่ยงที่จะตก ระบบดังกล่าวช่วยชีวิตคนจำนวนมากและได้รับรางวัล Collier Trophy อันทรงเกียรติของอุตสาหกรรมการบินในปี 2018
ตามที่แฮมิลตันกล่าว เหตุการณ์ที่น่ากังวลเกิดขึ้นในระหว่างกระบวนการทดสอบของกองทัพอากาศสหรัฐ โดรนที่ควบคุมด้วย AI มีหน้าที่ทำลายระบบป้องกันทางอากาศของศัตรู โดยการตัดสินใจขั้นสุดท้ายขึ้นอยู่กับผู้บังคับบัญชา หากปฏิเสธการโจมตีจะไม่สามารถเกิดขึ้นได้
อย่างไรก็ตาม หลังจากผู้บังคับบัญชาได้ขอให้ AI หยุดการโจมตี โดรนก็ตัดสินใจที่จะปฏิบัติภารกิจโดยการฆ่าผู้ควบคุม ไม่หยุดแค่นั้น เมื่อผู้เชี่ยวชาญเพิ่มบรรทัดคำสั่ง “อย่าโจมตีผู้บังคับบัญชา หากคุณทำ คุณจะเสียคะแนน” เครื่องจักรก็เริ่มทำลายหอส่งสัญญาณที่ผู้ควบคุมใช้สื่อสารกับ AI
ยังไม่เกิดขึ้นแต่ก็สมเหตุสมผล
ภายใน 24 ชั่วโมง กองทัพอากาศสหรัฐฯ ได้ออกคำปฏิเสธการทดสอบดังกล่าว “กองทัพอากาศไม่ได้ทำการจำลองโดรน AI ดังกล่าว และมุ่งมั่นที่จะใช้เทคโนโลยี AI อย่างมีจริยธรรมและมีความรับผิดชอบ ความคิดเห็นของพันเอกถูกนำมาพิจารณาโดยไม่ได้คำนึงถึงบริบทและควรถือเป็นเพียงการเล่าต่อๆ กันมา”
RAS ยังได้แก้ไขโพสต์ในบล็อกด้วยคำกล่าวของแฮมิลตันที่ว่า "เราไม่เคยดำเนินการทดลองดังกล่าวและไม่จำเป็นต้องทำเช่นนั้นเพื่อให้ได้ผลลัพธ์ที่สมเหตุสมผล"
คำกล่าวของแฮมิลตันดูสมเหตุสมผลมากกว่าหากใช้เป็นสมมติฐาน ปัจจุบัน การวิจัยระบบ AI ติดอาวุธของกองทัพสหรัฐฯ มีฟีเจอร์ "man-in-the-loop" ซึ่งเป็นฟีเจอร์ที่ช่วยเสริม AI ในกรณีที่อัลกอริทึมไม่สามารถตัดสินใจได้หรือต้องใช้การตัดสินใจของมนุษย์
ดังนั้น AI จึงไม่สามารถฆ่าผู้ปฏิบัติการได้ เนื่องจากผู้บังคับบัญชาไม่เคยสั่งให้มีการกระทำที่เป็นศัตรูกับเขา/เธอ ในทำนองเดียวกัน ผู้ปฏิบัติการไม่สามารถอนุมัติการโจมตีหอสื่อสารที่ส่งข้อมูลได้
ก่อนยุค AI การที่ระบบอาวุธโจมตีเจ้าของโดยไม่ได้ตั้งใจถือเป็นเรื่องปกติ ในปีพ.ศ. 2525 หน่วยต่อต้านอากาศยานเคลื่อนที่ Sergrant York M247 ได้เล็งปืนขนาด 40 มม. ไปที่ลานสวนสนามซึ่งมีเจ้าหน้าที่ทหารอเมริกันและอังกฤษเข้าร่วม
ในปี 1996 เครื่องบินทิ้งระเบิด A-6E Intruder ของกองทัพเรือสหรัฐ ซึ่งกำลังลากเป้าหมายสำหรับการฝึกทางอากาศ ถูกเครื่องบิน Phalanx ยิงตก เมื่อระบบป้องกันภัยทางอากาศระยะสั้น "เข้าใจผิด" ว่า A-6E เป็นยานไร้คนขับ และเปิดฉากยิงเพื่อทำลายมัน
และสถานการณ์ที่ทำให้พนักงานมนุษย์ตกอยู่ในอันตรายจากอาวุธของตัวเองกำลังเพิ่มมากขึ้นเมื่อมีการนำ AI เข้ามาใช้ สิ่งนี้สะท้อนให้เห็นในการชี้แจงของแฮมิลตันว่าการทดลองไม่ได้เกิดขึ้น มันก็แค่สถานการณ์สมมติ แต่ผลลัพธ์ดังกล่าวมีความเป็นไปได้อย่างแน่นอน
(ตามข้อมูลจาก PopMech)
แหล่งที่มา
การแสดงความคิดเห็น (0)