Vietnam.vn - Nền tảng quảng bá Việt Nam

ความเสี่ยงที่ AI จะก่อสงครามนิวเคลียร์ไม่ใช่เรื่องนิยายวิทยาศาสตร์

(CLO) สงครามนิวเคลียร์ที่เริ่มต้นโดย AI ฟังดูคล้ายกับหนังนิยายวิทยาศาสตร์ แต่นักวิทยาศาสตร์และนักการเมืองชั้นนำของโลกหลายคนกลับบอกว่าไม่ใช่

Công LuậnCông Luận23/03/2025

ความเสี่ยงในการสูญเสียการควบคุม AI

มนุษยชาติดูเหมือนจะมองข้ามสิ่งลี้ลับที่รออยู่เบื้องหน้า นั่นคือ ภัยสงครามนิวเคลียร์ระดับโลกที่เกิดจากปัญญาประดิษฐ์ (AI) อันโตนิโอ กูเตอร์เรส เลขาธิการสหประชาชาติ ได้ออกมาเตือนถึงเรื่องนี้แล้ว แต่จนถึงขณะนี้ ประเทศที่มีอาวุธนิวเคลียร์ยังไม่ได้ร่วมมือกันเจรจากับภัยคุกคามร้ายแรงนี้

อันตรายจากสงครามนิวเคลียร์ไม่ใช่เพียงตำนาน

การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ก่อให้เกิดความเสี่ยงที่ AI อาจแทรกแซงกระบวนการยิงอาวุธนิวเคลียร์ ภาพประกอบ

เป็นเวลานานแล้วที่มีการตกลงกันอย่างไม่เป็นทางการระหว่างมหาอำนาจด้านนิวเคลียร์ 5 อันดับแรก ได้แก่ สหรัฐอเมริกา รัสเซีย จีน สหราชอาณาจักร และฝรั่งเศส เกี่ยวกับหลักการ “มนุษย์อยู่ในวงจร” ซึ่งหมายความว่าแต่ละประเทศมีระบบที่จะรับรองว่ามนุษย์จะเข้าไปเกี่ยวข้องในการตัดสินใจยิงอาวุธนิวเคลียร์

มหาอำนาจทั้งห้าประเทศนี้ไม่ได้ระบุว่าได้นำปัญญาประดิษฐ์ (AI) มาใช้กับระบบบังคับบัญชาการปล่อยอาวุธนิวเคลียร์แต่อย่างใด ดร. ซันดีป วาสเลการ์ ประธาน Strategic Foresight Group ซึ่งเป็นองค์กรวิจัยระดับนานาชาติในมุมไบ ประเทศอินเดีย ระบุว่านี่เป็นเรื่องจริงแต่อาจทำให้เข้าใจผิดได้

ปัจจุบันมีการใช้ AI เพื่อตรวจจับภัยคุกคามและเลือกเป้าหมาย ระบบที่ขับเคลื่อนด้วย AI จะวิเคราะห์ข้อมูลจำนวนมากจากเซ็นเซอร์ ดาวเทียม และเรดาร์แบบเรียลไทม์ วิเคราะห์การโจมตีด้วยขีปนาวุธที่เข้ามา และเสนอทางเลือกในการรับมือ

จากนั้นผู้ปฏิบัติการจะตรวจสอบภัยคุกคามจากแหล่งต่างๆ และตัดสินใจว่าจะสกัดกั้นขีปนาวุธของศัตรูหรือเปิดฉากโจมตีตอบโต้

“ปัจจุบัน เวลาตอบสนองที่มนุษย์ผู้ควบคุมเครื่องสามารถรับรู้ได้คือ 10 ถึง 15 นาที ภายในปี 2030 เวลาตอบสนองจะลดลงเหลือ 5 ถึง 7 นาที” ซันดีป วาสเลการ์ กล่าว “แม้ว่ามนุษย์จะเป็นผู้ตัดสินใจขั้นสุดท้าย แต่พวกเขาจะได้รับอิทธิพลจากการวิเคราะห์เชิงคาดการณ์และเชิงกำหนดของ AI ซึ่ง AI อาจเป็นแรงผลักดันเบื้องหลังการตัดสินใจเปิดตัวได้เร็วที่สุดในช่วงทศวรรษ 2030”

ปัญหาคือ AI อาจผิดพลาดได้ อัลกอริทึมตรวจจับภัยคุกคามสามารถระบุการโจมตีด้วยขีปนาวุธได้ ทั้งที่ไม่มีอะไรเกิดขึ้น ซึ่งอาจเกิดจากข้อผิดพลาดของคอมพิวเตอร์ การบุกรุกเครือข่าย หรือปัจจัยแวดล้อมที่บดบังสัญญาณ หากผู้ปฏิบัติการที่เป็นมนุษย์ไม่สามารถยืนยันการแจ้งเตือนที่ผิดพลาดจากแหล่งอื่นได้ภายในสองถึงสามนาที การโจมตีตอบโต้ก็อาจนำไปสู่การโจมตีได้

ความผิดพลาดเล็กน้อยแต่เป็นหายนะครั้งใหญ่

การใช้ AI ในงานพลเรือนหลายอย่าง เช่น การคาดการณ์อาชญากรรม การจดจำใบหน้า และการพยากรณ์โรคมะเร็ง เป็นที่ทราบกันว่ามีค่าความคลาดเคลื่อนเพียง 10% ซันดีป วาสเลการ์ ระบุว่า ในระบบเตือนภัยล่วงหน้าทางนิวเคลียร์ ค่าความคลาดเคลื่อนอาจอยู่ที่ประมาณ 5%

เมื่อความแม่นยำของอัลกอริทึมการจดจำภาพพัฒนาขึ้นในทศวรรษหน้า ขอบเขตความผิดพลาดนี้อาจลดลงเหลือ 1-2% แต่แม้เพียง 1% ก็อาจก่อให้เกิดสงครามนิวเคลียร์ระดับโลกได้

อันตรายจากสงครามนิวเคลียร์ไม่ใช่เพียงตำนาน

การตัดสินใจโจมตีหรือตอบโต้อาวุธนิวเคลียร์อาจเกิดจากข้อผิดพลาดของ AI ภาพ: Modern War Institute

ความเสี่ยงอาจเพิ่มขึ้นในอีกสองถึงสามปีข้างหน้า เนื่องจากมีมัลแวร์ใหม่ๆ เกิดขึ้น ซึ่งสามารถหลบเลี่ยงระบบตรวจจับภัยคุกคามได้ มัลแวร์นี้จะปรับตัวเพื่อหลีกเลี่ยงการตรวจจับ ระบุเป้าหมายโดยอัตโนมัติ และโจมตีเป้าหมายเหล่านั้น

ในช่วงสงครามเย็น มีสถานการณ์ “เสี่ยงตาย” เกิดขึ้นหลายครั้ง ในปี 1983 ดาวเทียมของสหภาพโซเวียตตรวจพบขีปนาวุธ 5 ลูกที่สหรัฐอเมริกายิงพลาด สตานิสลาฟ เปตรอฟ เจ้าหน้าที่ประจำศูนย์บัญชาการเซปูคอฟ-15 ของรัสเซีย สรุปว่าเป็นการส่งสัญญาณเตือนภัยผิดพลาด และไม่ได้แจ้งให้ผู้บังคับบัญชาทราบเพื่อเตรียมโจมตีตอบโต้

ในปี 1995 สถานีเรดาร์โอเลเนกอร์สค์ตรวจพบการโจมตีด้วยขีปนาวุธนอกชายฝั่งนอร์เวย์ กองกำลังยุทธศาสตร์ของรัสเซียถูกยกระดับให้อยู่ในภาวะเตรียมพร้อมสูงสุด และประธานาธิบดีบอริส เยลต์ซินในขณะนั้นได้รับกระเป๋าเอกสารนิวเคลียร์ เขาสงสัยว่าเป็นความผิดพลาดและไม่ได้กดปุ่ม แต่กลับกลายเป็นว่ามันเป็นขีปนาวุธ ทางวิทยาศาสตร์ หากใช้ปัญญาประดิษฐ์ (AI) เพื่อประเมินการตอบสนองในสถานการณ์ใดสถานการณ์หนึ่ง ผลลัพธ์อาจเลวร้ายได้

ปัจจุบันขีปนาวุธความเร็วเหนือเสียงใช้ระบบอัตโนมัติแบบเดิมแทน AI ขีปนาวุธเหล่านี้สามารถเดินทางด้วยความเร็วระหว่างมัค 5 ถึงมัค 25 หลีกเลี่ยงการตรวจจับของเรดาร์และควบคุมเส้นทางการบิน มหาอำนาจกำลังวางแผนที่จะปรับปรุงขีปนาวุธความเร็วเหนือเสียงด้วย AI เพื่อระบุตำแหน่งและทำลายเป้าหมายที่กำลังเคลื่อนที่ได้ทันที เปลี่ยนการตัดสินใจฆ่าจากมนุษย์มาเป็นเครื่องจักร

นอกจากนี้ยังมีการแข่งขันกันพัฒนาปัญญาประดิษฐ์ทั่วไป ซึ่งอาจนำไปสู่รูปแบบปัญญาประดิษฐ์ที่ทำงานนอกเหนือการควบคุมของมนุษย์ เมื่อเกิดเหตุการณ์เช่นนี้ ระบบปัญญาประดิษฐ์จะเรียนรู้ที่จะปรับปรุงและจำลองตัวเอง เข้าควบคุมกระบวนการตัดสินใจ หากปัญญาประดิษฐ์ดังกล่าวถูกผสานเข้ากับระบบสนับสนุนการตัดสินใจสำหรับอาวุธนิวเคลียร์ เครื่องจักรจะสามารถก่อสงครามร้ายแรงได้

ถึงเวลาที่จะลงมือทำ

เมื่อเผชิญกับความเสี่ยงดังกล่าว ผู้เชี่ยวชาญหลายคนเชื่อว่ามนุษยชาติจำเป็นต้องมีข้อตกลงที่ครอบคลุมระหว่างมหาอำนาจเพื่อลดความเสี่ยงของสงครามนิวเคลียร์ โดยไม่เพียงแค่พูดซ้ำๆ ว่า “มนุษย์อยู่ในวงจร”

ข้อตกลงนี้ควรครอบคลุมถึงความโปร่งใส ความรับผิดชอบ และมาตรการความร่วมมือ มาตรฐานสากลสำหรับการทดสอบและการประเมิน ช่องทางการสื่อสารในภาวะวิกฤต คณะกรรมการกำกับดูแลระดับชาติ และกฎเกณฑ์เพื่อห้ามโมเดล AI ที่ก้าวร้าวซึ่งสามารถหลีกเลี่ยงผู้ปฏิบัติงานที่เป็นมนุษย์ได้

อันตรายจากสงครามนิวเคลียร์ไม่ใช่ผู้เชี่ยวชาญภาพสามมิติ

เลขาธิการสหประชาชาติ อันโตนิโอ กูเตอร์เรส เข้าร่วมพิธีรำลึก สันติภาพ ในเมืองฮิโรชิม่า ซึ่งถูกระเบิดปรมาณูโจมตีในปี 2488 ภาพ: UN

การเปลี่ยนแปลง ทางภูมิรัฐศาสตร์ กำลังสร้างโอกาสสำหรับข้อตกลงดังกล่าว ยกตัวอย่างเช่น ผู้เชี่ยวชาญด้าน AI ชั้นนำจากจีนและสหรัฐอเมริกา ได้ร่วมกันหารือในหัวข้อความเสี่ยงด้าน AI หลายประเด็น ซึ่งนำไปสู่แถลงการณ์ร่วมของอดีตประธานาธิบดีโจ ไบเดนแห่งสหรัฐอเมริกา และประธานาธิบดีสีจิ้นผิงของจีน เมื่อเดือนพฤศจิกายนที่ผ่านมา

มหาเศรษฐีอีลอน มัสก์เป็นผู้สนับสนุนอย่างแข็งขันถึงความจำเป็นในการช่วยมนุษยชาติจากความเสี่ยงต่อการดำรงอยู่ของ AI และเขาอาจเรียกร้องให้ประธานาธิบดีสหรัฐฯ ในปัจจุบัน โดนัลด์ ทรัมป์ เปลี่ยนแถลงการณ์ร่วมระหว่างโจ ไบเดนและสีจิ้นผิงให้กลายเป็นสนธิสัญญา ตามที่ดร. ซันดีป วาสเลการ์ กล่าว

ดร. ซุนดีป วาสเลการ์ กล่าวว่า ความท้าทายด้าน AI-นิวเคลียร์จำเป็นต้องอาศัยการมีส่วนร่วมของรัสเซีย จนกระทั่งถึงเดือนมกราคมปีนี้ รัสเซียปฏิเสธที่จะหารือเกี่ยวกับมาตรการลดความเสี่ยงด้านนิวเคลียร์ใดๆ รวมถึงการผสานรวมกับ AI เว้นแต่จะมีการหารือเกี่ยวกับยูเครน

ด้วยการที่ประธานาธิบดีโดนัลด์ ทรัมป์เข้าร่วมการเจรจากับประธานาธิบดีรัสเซีย วลาดิมีร์ ปูติน เพื่อปรับปรุงความสัมพันธ์ทวิภาคีและยุติสงครามในยูเครน รัสเซียอาจเปิดใจสำหรับการหารือแล้ว

ในเดือนกุมภาพันธ์ปีนี้ ภายหลังคำกล่าวของรองประธานาธิบดีสหรัฐฯ เจ.ดี. แวนซ์ ที่งาน Paris AI Action Summit ศูนย์เพื่อความมั่นคงแห่งอเมริกายุคใหม่ (CNAS) ก็ได้เผยแพร่รายงานเรื่อง “การป้องกันวันสิ้นโลกด้าน AI: การแข่งขันระหว่างสหรัฐฯ จีน และรัสเซีย ณ จุดเชื่อมโยงระหว่างอาวุธนิวเคลียร์และปัญญาประดิษฐ์”

รายงานดังกล่าวระบุถึงความเสี่ยงที่สำคัญที่สุดของความเชื่อมโยงระหว่าง AI กับนิวเคลียร์ และเรียกร้องให้รัฐบาลสหรัฐฯ จัดตั้งกลไกบรรเทาความเสี่ยงและจัดการวิกฤตที่ครอบคลุมร่วมกับจีนและรัสเซีย

ก่อนหน้านี้ในเดือนกันยายนปีที่แล้ว ประมาณ 60 ประเทศ รวมถึงสหรัฐอเมริกา ได้นำ "แผนปฏิบัติการ" มาใช้ในการจัดการการใช้งาน AI อย่างมีความรับผิดชอบในกองทัพ ณ การประชุมสุดยอด Responsible AI in Military Summit (REAIM) ซึ่งจัดขึ้นที่กรุงโซล ประเทศเกาหลีใต้ การประชุมครั้งนี้เป็นครั้งที่สองของการประชุมประเภทนี้ ต่อจากการประชุมที่กรุงเฮกเมื่อปีที่แล้ว การเคลื่อนไหวเหล่านี้แสดงให้เห็นว่าความเสี่ยงของสงครามนิวเคลียร์ที่เกิดจาก AI นั้นไม่ใช่เรื่องแต่ง

โลกกำลังเผชิญกับปัญหาด้านการดำรงอยู่ที่มีความเร่งด่วนเพิ่มมากขึ้นอย่างชัดเจน ซึ่งต้องการการดำเนินการจริงจากมหาอำนาจด้านนิวเคลียร์เพื่อให้แน่ใจว่า "การตัดสินใจทุกครั้งเกี่ยวกับการใช้อาวุธนิวเคลียร์นั้นทำโดยมนุษย์ ไม่ใช่เครื่องจักรหรืออัลกอริทึม" - ดังที่นายอันโตนิโอ กูเตอร์เรส เลขาธิการสหประชาชาติ เรียกร้อง

เหงียน ข่านห์


การแสดงความคิดเห็น (0)

กรุณาแสดงความคิดเห็นเพื่อแบ่งปันความรู้สึกของคุณ!

หมวดหมู่เดียวกัน

มหาวิหารนอเทรอดามในนครโฮจิมินห์ประดับไฟสว่างไสวต้อนรับคริสต์มาสปี 2025
สาวฮานอย “แต่งตัว” สวยรับเทศกาลคริสต์มาส
หลังพายุและน้ำท่วม หมู่บ้านดอกเบญจมาศในช่วงเทศกาลตรุษจีนที่เมืองจาลาย หวังว่าจะไม่มีไฟฟ้าดับ เพื่อช่วยต้นไม้เหล่านี้ไว้
เมืองหลวงแอปริคอตเหลืองภาคกลางประสบความสูญเสียอย่างหนักหลังเกิดภัยพิบัติธรรมชาติถึงสองครั้ง

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

ร้านกาแฟดาลัตมีลูกค้าเพิ่มขึ้น 300% เพราะเจ้าของร้านเล่นบท 'หนังศิลปะการต่อสู้'

เหตุการณ์ปัจจุบัน

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC