ความสามารถของโมเดลในการใช้เหตุผล แก้ปัญหาทางคณิตศาสตร์ที่ซับซ้อน และตอบคำถามการวิจัย ทางวิทยาศาสตร์ ถือเป็นก้าวสำคัญในการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งเป็นเครื่องจักรที่มีความสามารถในการรับรู้เทียบเท่ากับมนุษย์
OpenAI กล่าวว่าบริษัท “ระมัดระวัง” เป็นพิเศษเกี่ยวกับวิธีที่นำโมเดล o1 ออกสู่สาธารณะ เนื่องจากความสามารถขั้นสูงของมัน ภาพ: Getty Images
ไฟแนนเชียลไทมส์รายงานว่า OpenAI ประเมินความเสี่ยงของโมเดลใหม่เหล่านี้ไว้ที่ระดับ “ปานกลาง” สำหรับประเด็นที่เกี่ยวข้องกับอาวุธเคมี อาวุธชีวภาพ อาวุธรังสี และอาวุธนิวเคลียร์ (CBRN) ซึ่งเป็นระดับสูงสุดที่บริษัทเคยประเมินไว้ ซึ่งหมายความว่าเทคโนโลยีนี้ได้ “พัฒนา” ความสามารถของผู้เชี่ยวชาญในการสร้างอาวุธชีวภาพ “อย่างมีนัยสำคัญ”
ผู้เชี่ยวชาญกล่าวว่าซอฟต์แวร์ AI ที่มีความสามารถในการคิดเหตุผลอย่างละเอียด โดยเฉพาะอย่างยิ่งในมือของผู้ไม่ประสงค์ดี อาจเพิ่มความเสี่ยงในการถูกละเมิดได้
ศาสตราจารย์โยชัว เบนจิโอ นักวิทยาศาสตร์ AI ชั้นนำระดับ โลก จากมหาวิทยาลัยมอนทรีออล ได้เน้นย้ำว่าระดับความเสี่ยงปานกลางนี้ยิ่งเพิ่มความเร่งด่วนในการออกกฎระเบียบด้าน AI เช่น ร่างกฎหมาย SB 1047 ที่กำลังมีการถกเถียงกันในรัฐแคลิฟอร์เนีย ร่างกฎหมายฉบับนี้กำหนดให้ผู้ผลิต AI ดำเนินมาตรการเพื่อลดความเสี่ยงที่แบบจำลองของตนจะถูกนำไปใช้ในทางที่ผิดเพื่อพัฒนาอาวุธชีวภาพ
ตามรายงานของ The Verge ความปลอดภัยของโมเดล AI กลายเป็นข้อกังวลสำคัญ เนื่องจากบริษัทเทคโนโลยี เช่น Google, Meta และ Anthropic กำลังเร่งสร้างและปรับปรุงระบบ AI ขั้นสูง
ระบบเหล่านี้มีศักยภาพในการนำประโยชน์อันยิ่งใหญ่ในการช่วยให้มนุษย์ทำงานให้สำเร็จและช่วยเหลือในด้านต่างๆ แต่ก็ก่อให้เกิดความท้าทายในแง่ของความปลอดภัยและความรับผิดชอบต่อสังคมด้วยเช่นกัน
กาว ฟอง (ตามรายงานของ FT, Reuters, The Verge)
ที่มา: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
การแสดงความคิดเห็น (0)