อันตรายจากการสูญเสียการควบคุม AI
มนุษยชาติดูเหมือนจะมองข้ามภัยคุกคามที่รออยู่เบื้องหน้า นั่นคือภัยคุกคามจากสงครามนิวเคลียร์ทั่วโลกที่เกิดจากปัญญาประดิษฐ์ (AI) อันโตนิโอ กูเตอร์เรส เลขาธิการสหประชาชาติ ได้ออกมาเตือนถึงเรื่องนี้แล้ว แต่จนถึงขณะนี้ ประเทศที่มีอาวุธนิวเคลียร์ยังไม่ได้ร่วมมือกันเจรจากับประเทศต่างๆ เพื่อรับมือกับภัยคุกคามร้ายแรงนี้
การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ก่อให้เกิดความเสี่ยงที่ AI อาจเข้ามาแทรกแซงกระบวนการยิงอาวุธนิวเคลียร์ ภาพประกอบ
เป็นเวลานานแล้วที่มีการตกลงกันอย่างไม่เป็นทางการระหว่างมหาอำนาจด้านนิวเคลียร์ 5 อันดับแรก ได้แก่ สหรัฐอเมริกา รัสเซีย จีน สหราชอาณาจักร และฝรั่งเศส เกี่ยวกับหลักการ "มนุษย์อยู่ในวงจร" ซึ่งหมายความว่าแต่ละประเทศมีระบบที่จะรับรองว่ามนุษย์มีส่วนร่วมในการตัดสินใจยิงอาวุธนิวเคลียร์
มหาอำนาจทั้งห้าประเทศต่างไม่ได้ระบุว่าได้นำปัญญาประดิษฐ์ (AI) มาใช้กับระบบบังคับบัญชาการปล่อยอาวุธนิวเคลียร์ของตน ดร. ซันดีป วาสเลการ์ ประธานกลุ่ม Strategic Foresight Group ซึ่งเป็นองค์กรวิจัยระหว่างประเทศในมุมไบ ประเทศอินเดีย ระบุว่านี่เป็นเรื่องจริงแต่อาจทำให้เข้าใจผิดได้
ปัจจุบันมีการใช้ AI เพื่อตรวจจับภัยคุกคามและเลือกเป้าหมาย ระบบที่ขับเคลื่อนด้วย AI จะวิเคราะห์ข้อมูลจำนวนมากจากเซ็นเซอร์ ดาวเทียม และเรดาร์แบบเรียลไทม์ วิเคราะห์การโจมตีด้วยขีปนาวุธที่เข้ามา และเสนอทางเลือกในการรับมือ
จากนั้นผู้ปฏิบัติการจะตรวจสอบภัยคุกคามจากแหล่งต่างๆ และตัดสินใจว่าจะสกัดกั้นขีปนาวุธของศัตรูหรือเปิดฉากโจมตีตอบโต้
“ปัจจุบัน เวลาตอบสนองที่ผู้ปฏิบัติงานสามารถใช้ได้คือ 10 ถึง 15 นาที ภายในปี 2030 จะลดลงเหลือ 5 ถึง 7 นาที” ซันดีป วาสเลการ์ กล่าว “แม้ว่ามนุษย์จะเป็นผู้ตัดสินใจขั้นสุดท้าย แต่พวกเขาจะได้รับอิทธิพลจากการวิเคราะห์เชิงคาดการณ์และเชิงกำหนดของ AI ซึ่ง AI อาจเป็นแรงผลักดันเบื้องหลังการตัดสินใจเปิดตัวได้เร็วที่สุดในช่วงทศวรรษ 2030”
ปัญหาคือ AI อาจผิดพลาดได้ อัลกอริทึมตรวจจับภัยคุกคามสามารถระบุการโจมตีด้วยขีปนาวุธได้ ทั้งที่ไม่มีอะไรเกิดขึ้น ซึ่งอาจเกิดจากข้อผิดพลาดของคอมพิวเตอร์ การบุกรุกเครือข่าย หรือปัจจัยแวดล้อมที่บดบังสัญญาณ หากผู้ปฏิบัติการที่เป็นมนุษย์ไม่สามารถยืนยันการแจ้งเตือนที่ผิดพลาดจากแหล่งอื่นได้ภายในสองถึงสามนาที การโจมตีตอบโต้ก็อาจนำไปสู่การโจมตีได้
ความผิดพลาดเล็กน้อยแต่เป็นหายนะครั้งใหญ่
การใช้ AI ในงานด้านพลเรือนหลายอย่าง เช่น การพยากรณ์อาชญากรรม การจดจำใบหน้า และการพยากรณ์โรคมะเร็ง เป็นที่ทราบกันว่ามีค่าความคลาดเคลื่อนเพียง 10% ซันดีป วาสเลการ์ ระบุว่า ในระบบเตือนภัยนิวเคลียร์ ค่าความคลาดเคลื่อนอาจอยู่ที่ประมาณ 5%
เมื่อความแม่นยำของอัลกอริทึมการจดจำภาพพัฒนาขึ้นในทศวรรษหน้า ขอบเขตความผิดพลาดนี้อาจลดลงเหลือ 1-2% แต่แม้เพียง 1% ก็อาจก่อให้เกิดสงครามนิวเคลียร์ระดับโลกได้
การตัดสินใจโจมตีด้วยอาวุธนิวเคลียร์หรือการตอบโต้อาจเกิดจากข้อผิดพลาดของ AI ภาพ: Modern War Institute
ความเสี่ยงอาจเพิ่มขึ้นในอีกสองถึงสามปีข้างหน้า เนื่องจากมีมัลแวร์ใหม่ๆ เกิดขึ้น ซึ่งสามารถหลบเลี่ยงระบบตรวจจับภัยคุกคามได้ มัลแวร์นี้จะปรับตัวเพื่อหลีกเลี่ยงการตรวจจับ ระบุเป้าหมาย และโจมตีเป้าหมายโดยอัตโนมัติ
ในช่วงสงครามเย็น มีสถานการณ์ “เสี่ยงตาย” เกิดขึ้นหลายครั้ง ในปี 1983 ดาวเทียมของสหภาพโซเวียตตรวจพบขีปนาวุธ 5 ลูกที่สหรัฐอเมริกายิงพลาด สตานิสลาฟ เปตรอฟ เจ้าหน้าที่ประจำศูนย์บัญชาการเซปูคอฟ-15 ของรัสเซีย สรุปว่าเป็นการส่งสัญญาณเตือนภัยผิดพลาด และไม่ได้แจ้งให้ผู้บังคับบัญชาทราบเพื่อเตรียมโจมตีตอบโต้
ในปี 1995 สถานีเรดาร์โอเลเนกอร์สค์ตรวจพบการโจมตีด้วยขีปนาวุธนอกชายฝั่งนอร์เวย์ กองกำลังยุทธศาสตร์ของรัสเซียถูกยกระดับให้อยู่ในภาวะเตรียมพร้อมสูงสุด และประธานาธิบดีบอริส เยลต์ซิน ผู้นำรัสเซียในขณะนั้น ได้รับกระเป๋าเอกสารนิวเคลียร์ เขาสงสัยว่าเป็นความผิดพลาดและไม่ได้กดปุ่ม แต่กลับกลายเป็นว่ามันเป็นขีปนาวุธ ทางวิทยาศาสตร์ หากใช้ปัญญาประดิษฐ์ (AI) เพื่อประเมินการตอบสนองในสถานการณ์ใดสถานการณ์หนึ่ง ผลลัพธ์อาจเลวร้ายได้
ขีปนาวุธความเร็วเหนือเสียงในปัจจุบันใช้ระบบอัตโนมัติแบบเดิมแทน AI ขีปนาวุธเหล่านี้สามารถเคลื่อนที่ด้วยความเร็วตั้งแต่มัค 5 ถึงมัค 25 หลบเลี่ยงการตรวจจับของเรดาร์และควบคุมเส้นทางการบิน มหาอำนาจกำลังวางแผนที่จะปรับปรุงขีปนาวุธความเร็วเหนือเสียงด้วย AI เพื่อค้นหาและทำลายเป้าหมายที่กำลังเคลื่อนที่ได้ทันที เปลี่ยนการตัดสินใจฆ่าจากมนุษย์มาเป็นเครื่องจักร
นอกจากนี้ยังมีการแข่งขันกันพัฒนาปัญญาประดิษฐ์ทั่วไป ซึ่งอาจนำไปสู่รูปแบบปัญญาประดิษฐ์ที่ทำงานนอกเหนือการควบคุมของมนุษย์ เมื่อเกิดเหตุการณ์เช่นนี้ ระบบปัญญาประดิษฐ์จะเรียนรู้ที่จะปรับปรุงและจำลองตัวเอง เข้าควบคุมกระบวนการตัดสินใจ หากปัญญาประดิษฐ์ดังกล่าวถูกผสานเข้ากับระบบสนับสนุนการตัดสินใจสำหรับอาวุธนิวเคลียร์ เครื่องจักรจะสามารถก่อสงครามร้ายแรงได้
ถึงเวลาที่จะลงมือทำ
เมื่อเผชิญกับความเสี่ยงดังกล่าว ผู้เชี่ยวชาญหลายคนเชื่อว่ามนุษยชาติจำเป็นต้องมีข้อตกลงที่ครอบคลุมระหว่างมหาอำนาจเพื่อลดความเสี่ยงของสงครามนิวเคลียร์ โดยไม่เพียงแค่พูดซ้ำๆ ว่า “มนุษย์อยู่ในวงจร”
ข้อตกลงนี้ควรครอบคลุมถึงความโปร่งใส ความรับผิดชอบ และมาตรการความร่วมมือ มาตรฐานสากลสำหรับการทดสอบและการประเมิน ช่องทางการสื่อสารในภาวะวิกฤต คณะกรรมการกำกับดูแลระดับชาติ และกฎเกณฑ์เพื่อห้ามโมเดล AI ที่ก้าวร้าวซึ่งสามารถหลีกเลี่ยงผู้ปฏิบัติงานที่เป็นมนุษย์ได้
เลขาธิการสหประชาชาติ อันโตนิโอ กูเตอร์เรส เข้าร่วมพิธีรำลึก สันติภาพ ในเมืองฮิโรชิม่า ซึ่งถูกระเบิดปรมาณูโจมตีในปี 2488 ภาพ: UN
การเปลี่ยนแปลง ทางภูมิรัฐศาสตร์ กำลังสร้างโอกาสสำหรับข้อตกลงดังกล่าว ยกตัวอย่างเช่น ผู้เชี่ยวชาญด้าน AI ชั้นนำจากจีนและสหรัฐอเมริกา ได้ร่วมกันหารือในหัวข้อความเสี่ยงด้าน AI หลายประเด็น ซึ่งนำไปสู่แถลงการณ์ร่วมของอดีตประธานาธิบดีโจ ไบเดนแห่งสหรัฐอเมริกา และประธานาธิบดีสีจิ้นผิงของจีน เมื่อเดือนพฤศจิกายนที่ผ่านมา
มหาเศรษฐี Elon Musk เป็นผู้สนับสนุนอย่างแข็งขันในการปกป้องมนุษยชาติจากความเสี่ยงต่อการดำรงอยู่ของ AI และ Musk อาจเรียกร้องให้ประธานาธิบดีสหรัฐฯ คนปัจจุบัน Donald Trump เปลี่ยนแถลงการณ์ร่วมระหว่าง Joe Biden และ Xi Jinping ให้เป็นสนธิสัญญา ตามที่ดร. Sundeep Waslekar กล่าว
ดร. ซุนดีป วาสเลการ์ กล่าวว่า ความท้าทายด้าน AI-นิวเคลียร์จำเป็นต้องอาศัยการมีส่วนร่วมของรัสเซีย จนกระทั่งถึงเดือนมกราคมปีนี้ รัสเซียปฏิเสธที่จะหารือเกี่ยวกับมาตรการลดความเสี่ยงด้านนิวเคลียร์ใดๆ รวมถึงการผสานรวมกับ AI เว้นแต่จะมีการหยิบยกยูเครนขึ้นมาพิจารณา
ด้วยการที่ประธานาธิบดีโดนัลด์ ทรัมป์เข้าร่วมการเจรจากับประธานาธิบดีรัสเซีย วลาดิมีร์ ปูติน เพื่อปรับปรุงความสัมพันธ์ทวิภาคีและยุติสงครามในยูเครน รัสเซียอาจเปิดใจสำหรับการหารือแล้ว
ในเดือนกุมภาพันธ์ปีนี้ ภายหลังคำกล่าวของรองประธานาธิบดีสหรัฐฯ เจ.ดี. แวนซ์ ที่งาน Paris AI Action Summit ศูนย์เพื่อความมั่นคงใหม่ของอเมริกา (CNAS) ก็ได้เผยแพร่รายงานที่มีชื่อว่า "การป้องกันวันสิ้นโลกด้าน AI: การแข่งขันระหว่างสหรัฐฯ จีน และรัสเซีย ณ จุดเชื่อมโยงของอาวุธนิวเคลียร์และปัญญาประดิษฐ์"
รายงานดังกล่าวระบุถึงความเสี่ยงที่สำคัญที่สุดของความเชื่อมโยงระหว่าง AI กับนิวเคลียร์ และเรียกร้องให้รัฐบาลสหรัฐฯ จัดตั้งกลไกบรรเทาความเสี่ยงและจัดการวิกฤตที่ครอบคลุมร่วมกับจีนและรัสเซีย
ก่อนหน้านี้ในเดือนกันยายนปีที่แล้ว ประมาณ 60 ประเทศ รวมถึงสหรัฐอเมริกา ได้นำ “แผนปฏิบัติการ” มาใช้เพื่อจัดการการใช้ AI อย่างมีความรับผิดชอบในกองทัพ ในการประชุมสุดยอด Responsible AI in Military (REAIM) ซึ่งจัดขึ้นที่กรุงโซล ประเทศเกาหลีใต้ การประชุมครั้งนี้เป็นครั้งที่สองของการประชุมประเภทนี้ ต่อจากการประชุมที่กรุงเฮกเมื่อปีที่แล้ว การเคลื่อนไหวดังกล่าวแสดงให้เห็นว่าความเสี่ยงของสงครามนิวเคลียร์ที่เกิดจาก AI นั้นไม่ใช่เรื่องแต่ง
โลกกำลังเผชิญกับปัญหาด้านการดำรงอยู่ที่มีความเร่งด่วนเพิ่มมากขึ้นอย่างชัดเจน ซึ่งต้องการการดำเนินการจริงจากมหาอำนาจด้านนิวเคลียร์เพื่อให้แน่ใจว่า "การตัดสินใจทุกครั้งเกี่ยวกับการใช้อาวุธนิวเคลียร์นั้นทำโดยมนุษย์ ไม่ใช่เครื่องจักรหรืออัลกอริทึม" - ดังที่นายอันโตนิโอ กูเตอร์เรส เลขาธิการสหประชาชาติ เรียกร้อง
เหงียน ข่านห์
การแสดงความคิดเห็น (0)