โมเดลดังกล่าวมีความสามารถในการให้เหตุผล แก้ปัญหาทางคณิตศาสตร์ที่ซับซ้อน และตอบคำถามการวิจัย ทางวิทยาศาสตร์ ซึ่งถือเป็นก้าวสำคัญในการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) - เครื่องจักรที่มีความสามารถในการรับรู้เช่นเดียวกับมนุษย์
OpenAI กล่าวว่าบริษัทมี "ความระมัดระวัง" เป็นพิเศษเกี่ยวกับวิธีที่จะนำโมเดล o1 ไปสู่สาธารณชน เนื่องจากมีความสามารถขั้นสูง ภาพ: Getty Images
ตามรายงานของ Financial Times บริษัท OpenAI ประเมินความเสี่ยงของโมเดลใหม่เหล่านี้ไว้ว่าอยู่ในระดับ "ปานกลาง" สำหรับปัญหาที่เกี่ยวข้องกับอาวุธเคมี ชีวภาพ รังสี และนิวเคลียร์ (CBRN) ซึ่งถือเป็นระดับสูงสุดที่บริษัทเคยประเมินมา ซึ่งหมายความว่าเทคโนโลยีดังกล่าวได้ "ปรับปรุง" ความสามารถของผู้เชี่ยวชาญในการสร้างอาวุธชีวภาพได้ "ดีขึ้นอย่างมีนัยสำคัญ"
ตามที่ผู้เชี่ยวชาญกล่าวไว้ ซอฟต์แวร์ AI ที่มีความสามารถในการให้เหตุผลอย่างละเอียด โดยเฉพาะอย่างยิ่งเมื่ออยู่ในมือของผู้กระทำผิด อาจเพิ่มความเสี่ยงในการถูกละเมิดได้
ศาสตราจารย์ Yoshua Bengio นักวิทยาศาสตร์ด้าน AI ชั้นนำของโลก จากมหาวิทยาลัยมอนทรีออล เน้นย้ำว่าระดับความเสี่ยงปานกลางนี้ทำให้การบังคับใช้กฎหมายด้าน AI มีความจำเป็นมากขึ้น เช่น ร่างกฎหมาย SB 1047 ซึ่งกำลังถกเถียงกันในแคลิฟอร์เนีย ร่างกฎหมายฉบับนี้กำหนดให้ผู้ผลิต AI ต้องดำเนินมาตรการเพื่อลดความเสี่ยงที่โมเดลของตนจะถูกนำไปใช้อย่างผิดวิธีเพื่อพัฒนาอาวุธชีวภาพ
ตามที่ The Verge รายงาน การรักษาความปลอดภัยและความมั่นคงของโมเดล AI ได้กลายเป็นข้อกังวลสำคัญ เนื่องจากบริษัทเทคโนโลยี เช่น Google, Meta และ Anthropic กำลังเร่งสร้างและปรับปรุงระบบ AI ขั้นสูง
ระบบเหล่านี้มีศักยภาพในการให้ผลประโยชน์อย่างมากในการช่วยให้มนุษย์ทำงานให้สำเร็จและให้ความช่วยเหลือในด้านต่างๆ แต่ก็ก่อให้เกิดความท้าทายด้านความปลอดภัยและความรับผิดชอบต่อสังคมด้วยเช่นกัน
กาว ฟอง (ตามรายงานของ FT, Reuters, The Verge)
ที่มา: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
การแสดงความคิดเห็น (0)