สัปดาห์ที่แล้ว กลุ่มผู้เชี่ยวชาญระดับนานาชาติที่มีชื่อเสียงได้ประชุมกันที่ปักกิ่ง โดยพวกเขาได้ระบุ "เส้นแดง" ในการพัฒนา AI รวมถึงการสร้างอาวุธชีวภาพและการโจมตีทางไซเบอร์
ในแถลงการณ์หลังการประชุมไม่กี่วัน นักวิชาการเตือนว่าจำเป็นต้องมีแนวทางร่วมกันในการรักษาความปลอดภัยด้าน AI เพื่อป้องกัน "ความเสี่ยงหายนะหรือแม้กระทั่งความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติในช่วงชีวิตของเรา"
“ในช่วงที่สงครามเย็นกำลังดุเดือด ความร่วมมือระหว่างรัฐบาลและ วิทยาศาสตร์ ระหว่างประเทศช่วยป้องกันภัยพิบัตินิวเคลียร์ได้ มนุษยชาติต้องร่วมมือกันอีกครั้งเพื่อป้องกันภัยพิบัติที่อาจเกิดขึ้นจากเทคโนโลยีที่ไม่เคยเกิดขึ้นมาก่อน” แถลงการณ์ระบุ
ผู้เชี่ยวชาญจากการประชุมนานาชาติว่าด้วยความปลอดภัยของ AI ที่กรุงปักกิ่ง ได้ระบุ “เส้นแดง” ในการพัฒนา AI ภาพ: FT
ผู้ลงนามได้แก่ Geoffrey Hinton และ Yoshua Bengio ซึ่งมักถูกกล่าวถึงว่าเป็น "บิดา" ของ AI, Stuart Russell ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัยแคลิฟอร์เนีย และ Andrew Yao หนึ่งในนักวิทยาศาสตร์คอมพิวเตอร์ที่มีชื่อเสียงที่สุดของจีน
แถลงการณ์ดังกล่าวออกมาหลังจากการประชุม International AI Safety Dialogue ที่กรุงปักกิ่งเมื่อสัปดาห์ที่แล้ว ซึ่งมีเจ้าหน้าที่ รัฐบาล จีนเข้าร่วมเพื่อแสดงความเห็นชอบต่อฟอรัมดังกล่าวและผลลัพธ์ที่ได้
ประธานาธิบดีโจ ไบเดน ของสหรัฐฯ และประธานาธิบดีสีจิ้นผิง ของจีน พบกันในเดือนพฤศจิกายนปีที่แล้ว และหารือกันเกี่ยวกับความปลอดภัยของ AI โดยตกลงที่จะจัดตั้งการเจรจาในประเด็นนี้ ในช่วงไม่กี่เดือนที่ผ่านมา บริษัท AI ชั้นนำของโลก ก็ได้พบปะกับผู้เชี่ยวชาญด้าน AI ของจีนเป็นการส่วนตัวเช่นกัน
ในเดือนพฤศจิกายน พ.ศ. 2566 ประเทศต่างๆ 28 ประเทศ รวมถึงจีน และบริษัท AI ชั้นนำต่างตกลงที่จะร่วมมือกันเพื่อจัดการกับความเสี่ยงด้านการดำรงอยู่ที่เกิดจาก AI ขั้นสูงในการประชุมสุดยอดด้านความปลอดภัย AI ของ Rishi Sunak รัฐมนตรีว่าการกระทรวงการคลังของสหราชอาณาจักร
เมื่อสัปดาห์ที่แล้วที่กรุงปักกิ่ง ผู้เชี่ยวชาญได้หารือถึงภัยคุกคามที่เกี่ยวข้องกับการพัฒนา "ปัญญาประดิษฐ์ทั่วไป หรือ AGI" หรือระบบ AI ที่เท่าเทียมหรือเหนือกว่ามนุษย์
“ประเด็นสำคัญของการอภิปรายครั้งนี้คือเส้นแบ่งที่ระบบ AI ที่มีประสิทธิภาพไม่ควรข้าม และรัฐบาลทั่วโลกควรบังคับใช้ในการพัฒนาและการใช้งาน AI” เบนจิโอกล่าว
เส้นสีแดงเหล่านี้จะทำให้แน่ใจได้ว่า "ระบบ AI ไม่สามารถจำลองหรือปรับปรุงตัวเองได้โดยปราศจากความยินยอมและการสนับสนุนจากมนุษย์อย่างชัดแจ้ง" หรือ "ดำเนินการใดๆ ที่จะเพิ่มอำนาจและอิทธิพลของตัวเองอย่างไม่สมควร"
นักวิทยาศาสตร์ยังกล่าวเสริมด้วยว่า ไม่มีระบบใดที่จะ "เพิ่มความสามารถของผู้มีส่วนเกี่ยวข้องในการออกแบบอาวุธทำลายล้างสูง ละเมิดอนุสัญญาอาวุธชีวภาพหรืออาวุธเคมี" หรือสามารถ "ดำเนินการโจมตีทางไซเบอร์โดยอัตโนมัติซึ่งส่งผลให้เกิดการสูญเสียทางการเงินอย่างร้ายแรงหรืออันตรายที่เทียบเท่า" ได้อย่างมีนัยสำคัญ
ฮวงไห่ (ตามรายงานของ FT)
แหล่งที่มา
การแสดงความคิดเห็น (0)