ในการสัมภาษณ์กับ The Guardian ผู้เขียนหนังสือ "Sapiens: A Brief History of Humankind" กล่าวว่า ปัญหาต่างๆ ที่เกิดจากโมเดล AI นั้นไม่ได้จำกัดอยู่แค่สถานการณ์ใหญ่ๆ เพียงสถานการณ์เดียว ซึ่งแตกต่างจากอาวุธนิวเคลียร์
ด้วย AI จึงมีสถานการณ์อันตรายมากมายนับไม่ถ้วน โดยแต่ละสถานการณ์อาจรวมกันเป็นภัยคุกคามต่อการดำรงอยู่ของอารยธรรมมนุษย์ได้
ปฏิญญาพหุภาคีที่การประชุม Global AI Safety Summit ณ Bletchley Park สหราชอาณาจักร ถือเป็น “ก้าวสำคัญไปข้างหน้า” เนื่องจาก รัฐบาล ชั้นนำต่างมารวมตัวกันเพื่อแสดงความกังวลเกี่ยวกับเทคโนโลยีดังกล่าวและดำเนินการบางอย่างเกี่ยวกับเรื่องนี้ ฮารารีกล่าว
“หากไม่มีความร่วมมือระดับโลก การจะหยุดยั้งศักยภาพอันอันตรายที่สุดของ AI ให้ได้นั้นยากมากหรืออาจเรียกได้ว่าเป็นไปไม่ได้เลย” เขากล่าว
การประชุมสุดยอดครั้งนี้จบลงด้วยข้อตกลงระหว่างรัฐบาล 10 แห่งและบริษัท AI รายใหญ่ รวมถึงนักพัฒนา ChatGPT อย่าง OpenAI และ Google เพื่อร่วมมือกันทดสอบโมเดล AI ขั้นสูงก่อนและหลังจากที่เปิดตัว
ผู้เขียน Sapiens โต้แย้งว่าปัญหาประการหนึ่งในการทดสอบความปลอดภัยของแบบจำลองคือการต้องคาดการณ์ปัญหาต่างๆ ที่อาจเกิดขึ้น
AI แตกต่างจากเทคโนโลยีก่อนหน้านี้ทั้งหมดในประวัติศาสตร์มนุษย์ เพราะเป็นเทคโนโลยีแรกที่สามารถตัดสินใจ สร้างไอเดียใหม่ๆ และเรียนรู้และพัฒนาได้ด้วยตัวเอง
เมื่อพิจารณาตามนิยามแล้ว เป็นเรื่องยากมากสำหรับมนุษย์ – แม้กระทั่ง “บิดา” ของ AI – ที่จะคาดการณ์อันตรายและปัญหาที่อาจเกิดขึ้นทั้งหมด
รัฐบาลได้หยิบยกภัยคุกคามจากระบบ AI ที่ช่วยสร้างอาวุธชีวภาพขึ้นมา แต่ยังมีสถานการณ์อื่นๆ ที่สามารถนำมาพิจารณาได้
นายฮารารีชี้ให้เห็นว่าการเงินเป็นสาขาที่เหมาะสำหรับระบบ AI เนื่องจากข้อมูลและ AI เพียงอย่างเดียวสามารถสร้างวิกฤตการณ์ร้ายแรงได้
“จะเกิดอะไรขึ้นถ้า AI ไม่เพียงแต่ได้รับอำนาจควบคุมระบบการเงินของโลก มากขึ้นเท่านั้น แต่ยังเริ่มสร้างอุปกรณ์การเงินใหม่ๆ ที่เฉพาะ AI เท่านั้นที่เข้าใจได้ แต่มนุษย์ไม่เข้าใจด้วย” ฮารารีถาม
วิกฤตการณ์ทางการเงินในช่วงปี 2550-2551 เกิดจากตราสารหนี้ เช่น ตราสารหนี้ที่มีหลักประกัน (CDO) ที่ยังไม่ค่อยมีใครเข้าใจและไม่ได้รับการควบคุมอย่างเต็มที่ นักประวัติศาสตร์กล่าวเสริม
“AI มีศักยภาพในการสร้างอุปกรณ์ทางการเงินที่ซับซ้อนกว่า CDO ลองนึกภาพสถานการณ์ที่เรามีระบบการเงินที่มนุษย์ไม่สามารถเข้าใจและไม่สามารถควบคุมได้” เขากล่าว “และแล้วก็มีวิกฤตทางการเงินที่ไม่มีใครเข้าใจว่าเกิดอะไรขึ้น”
เมื่อเดือนที่แล้ว รัฐบาลอังกฤษได้แสดงความกังวลเกี่ยวกับโมเดล AI ขั้นสูงที่อาจก่อให้เกิดภัยคุกคามต่อการดำรงอยู่โดยการควบคุมและจัดการระบบการเงิน
แต่คุณฮารารีเชื่อว่าวิกฤตทางการเงินที่เกิดจาก AI จะไม่ทำลายอารยธรรมของมนุษย์ "อย่างน้อยก็ไม่ใช่โดยตรง"
“โดยอ้อมแล้ว มันอาจจะก่อให้เกิดสงครามหรือความขัดแย้งในรูปแบบใดรูปแบบหนึ่งได้ ถือเป็นความเสี่ยงที่ร้ายแรง ทั้งทางเศรษฐกิจ สังคม และ การเมือง ” เขากล่าวเสริม
ผู้เขียนชาวอิสราเอล ผู้สนับสนุนการเรียกร้องให้หยุดการพัฒนา AI ขั้นสูงเป็นเวลา 6 เดือน และให้บริษัท AI รับผิดชอบต่อความเสียหายที่เกิดจากผลิตภัณฑ์ของพวกเขา กล่าวว่าไม่ควรเน้นที่กฎระเบียบและกฎหมายเฉพาะ แต่ควรเน้นที่องค์กรกำกับดูแลที่มีความรู้เกี่ยวกับเทคโนโลยี ซึ่งสามารถตอบสนองได้อย่างรวดเร็วเมื่อมีความก้าวหน้าใหม่ๆ เกิดขึ้น
“เราจำเป็นต้องสร้างสถาบันกำกับดูแลที่แข็งแกร่งโดยเร็วที่สุด เพื่อให้มีความสามารถในการระบุและตอบสนองต่ออันตรายเมื่อเกิดขึ้น โดยยึดหลักความเข้าใจว่าเราไม่สามารถคาดการณ์อันตรายและปัญหาทั้งหมดได้ล่วงหน้า”
“นี่ควรเป็นความพยายามหลัก ไม่ใช่การเขียนกฎระเบียบที่ยาวและซับซ้อนมากเกินไป ซึ่งอาจจะล้าสมัยไปแล้วเมื่อถึงเวลาที่รัฐสภาผ่าน” เขากล่าว
สถาบันวิจัยความปลอดภัยของ AI ควรจ้างผู้เชี่ยวชาญที่เข้าใจถึงผลกระทบที่อาจเกิดขึ้นของ AI ต่อโลกการเงิน ฮารารีกล่าว
เมื่อเดือนที่แล้ว ริชี ซูแนค รัฐมนตรีคลังของสหราชอาณาจักร ประกาศจัดตั้งสถาบันความปลอดภัยด้าน AI ของสหราชอาณาจักร ไม่กี่วันต่อมาทำเนียบขาวได้ประกาศแผนการจัดตั้งหน่วยงานที่คล้ายกัน คาดว่าทั้งสองจะมีบทบาทสำคัญในการทดสอบโมเดล AI ขั้นสูง
นายซูแนคกล่าวที่การประชุมสุดยอดว่าอังกฤษจำเป็นต้องเข้าใจถึงความสามารถของโมเดล AI ขั้นสูงก่อนที่จะออกกฎหมายเพื่อจัดการกับเรื่องนี้
(ตามรายงานของ The Guardian)
แอปพลิเคชัน AI GraphCast คาดการณ์สภาพอากาศ 10 วันได้แม่นยำที่สุดในโลก
ห้องปฏิบัติการ DeepMind ของ Google ในสหราชอาณาจักรได้พัฒนาระบบ GraphCast ซึ่งเป็นแอปพลิเคชันปัญญาประดิษฐ์ (AI) ที่สามารถพยากรณ์อากาศ 10 วันได้แม่นยำที่สุดในโลก
การทำงานร่วมกันของ AI และ Cloud Computing
การผสมผสานระหว่างปัญญาประดิษฐ์ (AI) และระบบคลาวด์คอมพิวติ้งเป็นแนวโน้มที่ไม่อาจหยุดยั้งได้ซึ่งกำลังเปลี่ยนโฉมหน้าอุตสาหกรรมต่างๆ ทั่วโลก
แหล่งที่มา
การแสดงความคิดเห็น (0)