ภาพอันซับซ้อนของหุ่นยนต์ AI Killer
การปล่อยให้ AI ควบคุมระบบอาวุธอาจหมายถึงการระบุเป้าหมาย โจมตี และทำลายเป้าหมายโดยไม่ต้องมีการแทรกแซงจากมนุษย์ ซึ่งทำให้เกิดคำถามทางกฎหมายและจริยธรรมที่ร้ายแรง
นายอเล็กซานเดอร์ ชัลเลนเบิร์ก รัฐมนตรี ต่างประเทศ ออสเตรีย เน้นย้ำถึงความร้ายแรงของสถานการณ์ โดยกล่าวว่า “นี่คือช่วงเวลาแห่งออพเพนไฮเมอร์แห่งยุคสมัยเรา”
หุ่นยนต์และอาวุธที่ใช้ปัญญาประดิษฐ์เริ่มถูกนำมาใช้กันอย่างแพร่หลายในกองทัพของหลายประเทศ ภาพ: Forbes
อันที่จริงแล้ว ขอบเขตที่ “ยักษ์จินนีหนีออกจากขวด” ได้กลายมาเป็นคำถามเร่งด่วน เนื่องจากโดรนและปัญญาประดิษฐ์ (AI) ได้รับการใช้กันอย่างแพร่หลายโดยกองทัพทั่วโลก
วิลสัน โจนส์ นักวิเคราะห์ด้านกลาโหมของ GlobalData กล่าวว่า “การใช้โดรนในความขัดแย้งยุคใหม่ของรัสเซียและยูเครน การใช้โดรนของสหรัฐฯ ในการปฏิบัติการโจมตีแบบกำหนดเป้าหมายในอัฟกานิสถานและปากีสถาน รวมถึงที่เปิดเผยเมื่อเดือนที่แล้วว่าเป็นส่วนหนึ่งของโครงการ Lavender ของอิสราเอล แสดงให้เห็นว่าความสามารถในการประมวลผลข้อมูลของ AI ถูกนำมาใช้โดยกองทัพทั่วโลกอย่างจริงจังเพื่อเสริมสร้างอำนาจในการรุก”
การสืบสวนของสำนักงานข่าวสืบสวนสงครามในลอนดอนพบว่าระบบปัญญาประดิษฐ์ Lavender AI ของกองทัพอิสราเอลมีความแม่นยำ 90% ในการระบุตัวบุคคลที่มีความเชื่อมโยงกับกลุ่มฮามาส ซึ่งหมายความว่ามี 10% ที่ไม่เกี่ยวข้อง ส่งผลให้พลเรือนเสียชีวิตด้วยเนื่องจากระบบปัญญาประดิษฐ์สามารถระบุตัวและตัดสินใจได้
ภัยคุกคามต่อความมั่นคงของโลก
การใช้ AI ในลักษณะนี้เน้นย้ำถึงความจำเป็นในการจัดการเทคโนโลยีในระบบอาวุธ
“การใช้ AI ในระบบอาวุธ โดยเฉพาะอย่างยิ่งเมื่อใช้เพื่อกำหนดเป้าหมาย ก่อให้เกิดคำถามพื้นฐานเกี่ยวกับว่าเราเป็นมนุษย์แบบไหน และความสัมพันธ์ของเรากับสงคราม และโดยเฉพาะอย่างยิ่งสมมติฐานของเราเกี่ยวกับวิธีการที่เราอาจใช้ความรุนแรงใน การสู้ รบ” ดร.อเล็กซานเดอร์ แบลนชาร์ด นักวิจัยอาวุโสในโครงการการกำกับดูแลปัญญาประดิษฐ์ที่สถาบันวิจัยสันติภาพนานาชาติสตอกโฮล์ม (SIPRI) ซึ่งเป็นกลุ่มวิจัยอิสระที่เน้นด้านความมั่นคงระดับโลก อธิบายให้ Army Technology ฟัง
ระบบ AI เมื่อใช้ในสภาพแวดล้อมที่วุ่นวาย อาจทำงานผิดปกติและอาจระบุเป้าหมายได้ไม่แม่นยำ ภาพ: MES
“ปัญญาประดิษฐ์เปลี่ยนวิธีที่กองทัพเลือกเป้าหมายและใช้กำลังกับพวกเขาอย่างไร การเปลี่ยนแปลงเหล่านี้ทำให้เกิดคำถามทางกฎหมาย จริยธรรม และการปฏิบัติการมากมาย ความกังวลที่ใหญ่ที่สุดคือประเด็นด้านมนุษยธรรม” ดร. แบลนชาร์ดกล่าวเสริม
“หลายคนกังวลว่าระบบอัตโนมัติอาจเสี่ยงต่ออันตรายมากขึ้นหากพลเรือนและบุคคลอื่นที่ได้รับการคุ้มครองตามกฎหมายระหว่างประเทศได้รับการออกแบบและใช้งานในลักษณะใด ทั้งนี้เนื่องจากระบบ AI โดยเฉพาะเมื่อใช้ในสภาพแวดล้อมที่วุ่นวาย อาจทำงานผิดปกติได้ และอาจระบุเป้าหมายและโจมตีพลเรือนไม่ได้ หรือระบุผู้สู้รบที่ไม่ได้อยู่ในสนามรบไม่ได้” ผู้เชี่ยวชาญของ SIPRI อธิบาย
วิลสัน โจนส์ นักวิเคราะห์ด้านการป้องกันประเทศของ GlobalData เมื่ออธิบายเพิ่มเติมเกี่ยวกับประเด็นนี้ กล่าวว่า ประเด็นที่เกี่ยวกับวิธีการพิจารณาความผิดนั้นอาจเป็นประเด็นที่น่าสงสัยได้
“ภายใต้กฎหมายสงครามปัจจุบัน มีแนวคิดเรื่องความรับผิดชอบในการบังคับบัญชา” โจนส์กล่าว “นั่นหมายความว่านายทหาร นายพล หรือผู้นำคนอื่นๆ จะต้องรับผิดชอบตามกฎหมายสำหรับการกระทำของกองกำลังภายใต้การบังคับบัญชาของตน หากกองกำลังก่ออาชญากรรมสงคราม นายทหารจะต้องรับผิดชอบแม้ว่าจะไม่ได้เป็นผู้สั่งการก็ตาม ภาระในการพิสูจน์ตกอยู่ที่นายทหารในการพิสูจน์ว่าพวกเขาได้ทำทุกอย่างที่ทำได้เพื่อป้องกันอาชญากรรมสงครามแล้ว”
“ระบบ AI ทำให้หลายๆ อย่างซับซ้อนขึ้น ช่างไอทีต้องรับผิดชอบหรือไม่ นักออกแบบระบบรับผิดชอบหรือไม่ ยังไม่ชัดเจน หากไม่ชัดเจน จะก่อให้เกิดอันตรายทางจริยธรรมหากผู้กระทำความผิดคิดว่าการกระทำของตนไม่ได้รับการคุ้มครองตามกฎหมายที่มีอยู่” โจนส์เน้นย้ำ
ทหารสหรัฐกำลังลาดตระเวนพร้อมกับสุนัขหุ่นยนต์ ภาพ: Forbes
อนุสัญญาควบคุมอาวุธ ข้อตกลงระหว่างประเทศที่สำคัญหลายฉบับจำกัดและควบคุมการใช้อาวุธบางประเภท เช่น การห้ามใช้อาวุธเคมี สนธิสัญญาไม่แพร่ขยายอาวุธนิวเคลียร์ และอนุสัญญาว่าด้วยอาวุธบางประเภท ซึ่งห้ามหรือจำกัดการใช้อาวุธบางชนิดที่ถือว่าก่อให้เกิดความทุกข์ทรมานแก่ผู้ต่อสู้โดยไม่จำเป็นหรือไม่มีเหตุผล หรือส่งผลกระทบต่อพลเรือนอย่างไม่เลือกหน้า
วิลสัน โจนส์ นักวิเคราะห์ด้านการป้องกันประเทศอธิบายว่า “การควบคุมอาวุธนิวเคลียร์ต้องอาศัยความร่วมมือระหว่างประเทศหลายสิบปีและสนธิสัญญาที่ตามมาจึงจะมีผลบังคับใช้ได้” “ถึงตอนนั้น เราก็ยังคงทดสอบบรรยากาศอย่างต่อเนื่องจนถึงช่วงทศวรรษ 1990 เหตุผลสำคัญประการหนึ่งที่ทำให้การไม่แพร่ขยายอาวุธนิวเคลียร์ประสบความสำเร็จก็คือความร่วมมือระหว่างสหรัฐอเมริกาและสหภาพโซเวียตในระเบียบโลกสองขั้ว ซึ่งไม่มีอยู่อีกต่อไปแล้ว และเทคโนโลยีที่ช่วยให้เกิดปัญญาประดิษฐ์นั้นเข้าถึงได้ง่ายกว่าพลังงานนิวเคลียร์สำหรับหลายประเทศ”
“สนธิสัญญาที่มีผลผูกพันจะต้องนำผู้ที่เกี่ยวข้องทั้งหมดมาเจรจาตกลงกันที่จะไม่ใช้เครื่องมือที่จะเพิ่มอำนาจทางทหาร ซึ่งไม่น่าจะได้ผล เนื่องจาก AI สามารถปรับปรุงประสิทธิภาพทางทหารได้ด้วยต้นทุนทางการเงินและวัสดุที่น้อยที่สุด”
แนวโน้มภูมิรัฐศาสตร์ในปัจจุบัน
แม้ว่าประเทศต่างๆ ในองค์การสหประชาชาติจะยอมรับถึงความจำเป็นในการใช้ AI ทางทหารอย่างมีความรับผิดชอบ แต่ก็ยังมีงานอีกมากที่ต้องทำ
ลอร่า เปโตรเน นักวิเคราะห์หลักจาก GlobalData บอกกับ Army Technology ว่า “หากไม่มีกรอบการกำกับดูแลที่ชัดเจน การเรียกร้องเหล่านี้ก็ยังคงเป็นเพียงการปรารถนาเท่านั้น ไม่น่าแปลกใจที่บางประเทศต้องการรักษาอำนาจอธิปไตยของตนเองไว้เมื่อตัดสินใจในเรื่องการป้องกันประเทศและความมั่นคงของชาติ โดยเฉพาะอย่างยิ่งในบรรยากาศของความตึงเครียดทางภูมิรัฐศาสตร์ในปัจจุบัน”
นางเปโตรนกล่าวเสริมว่า แม้ว่ากฎหมาย AI ของสหภาพยุโรปจะกำหนดข้อกำหนดบางประการสำหรับระบบ AI แต่ก็ไม่ได้กล่าวถึงระบบ AI เพื่อวัตถุประสงค์ทางทหาร
“ฉันคิดว่าแม้จะมีการยกเว้นนี้ แต่พระราชบัญญัติ AI ก็เป็นความพยายามที่สำคัญในการสร้างกรอบการทำงานสำหรับแอปพลิเคชัน AI ที่รอคอยกันมานาน ซึ่งอาจนำไปสู่มาตรฐานที่เกี่ยวข้องที่มีความสม่ำเสมอในระดับหนึ่งในอนาคต” เธอกล่าว “ความสม่ำเสมอนี้จะมีความสำคัญต่อ AI ในด้านทหารด้วย”
เหงียนคานห์
ที่มา: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
การแสดงความคิดเห็น (0)