:โทรศัพท์แสดงอินเทอร์เฟซการเรียนรู้ GPT-o1 ของ OpenAI - ภาพ: FINANCIAL TIMES
เมื่อวันที่ 13 กันยายน ที่ผ่านมา บริษัท OpenAI รายงานว่าโมเดล GPT-o1 ซึ่งเพิ่งเปิดตัวไปเมื่อวันที่ 12 กันยายนที่ผ่านมานั้น "เพิ่ม" ความเสี่ยงที่ปัญญาประดิษฐ์ (AI) จะถูกนำไปใช้สร้างอาวุธชีวภาพ "อย่างมีนัยสำคัญ"
เอกสารอธิบายการทำงานของ GPT-o1 ที่เผยแพร่โดย OpenAI ระบุว่าแบบจำลองใหม่นี้มี "ระดับความเสี่ยงปานกลาง" สำหรับประเด็นที่เกี่ยวข้องกับอาวุธเคมี อาวุธชีวภาพ อาวุธรังสี และอาวุธนิวเคลียร์ ซึ่งถือเป็นระดับความเสี่ยงสูงสุดที่ OpenAI เคยกำหนดให้กับแบบจำลอง AI ของตน
ตามที่ OpenAI ระบุ นั่นหมายความว่า GPT-o1 อาจ "ปรับปรุง" ความสามารถของผู้เชี่ยวชาญที่ต้องการใช้ประโยชน์จากมันเพื่อสร้างอาวุธชีวภาพได้อย่างมาก
Mira Murati ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยี (CTO) ของ OpenAI กล่าวว่า แม้ว่า GPT-o1 จะยังอยู่ในระยะทดสอบ แต่ความสามารถขั้นสูงของโมเดลนี้ยังบังคับให้บริษัทต้อง "ระมัดระวัง" อย่างยิ่งเกี่ยวกับแผนงานที่จะเผยแพร่สู่สาธารณะ
นอกจากนี้ นางสาว Murati ยังยืนยันว่าโมเดลดังกล่าวได้รับการทดสอบอย่างละเอียดถี่ถ้วนโดยทีมผู้เชี่ยวชาญหลายสาขาที่ OpenAI จ้างมาเพื่อทดสอบขีดจำกัดของโมเดลที่บริษัทพัฒนา
กระบวนการทดสอบแสดงให้เห็นว่ารุ่น GPT-o1 ตรงตามเกณฑ์ความปลอดภัยทั่วไปได้ดีกว่ารุ่นก่อนมาก คุณ Murati กล่าว
ไม่เพียงเท่านั้น ตัวแทนของ OpenAI ยังรับรองด้วยว่าเวอร์ชันทดลองใช้ของ GPT-o1 นั้น "ปลอดภัยสำหรับการใช้งาน" และไม่สามารถสร้างความเสี่ยงที่ซับซ้อนมากกว่าเทคโนโลยีที่พัฒนาขึ้นได้
แม้จะมีการรับรองดังกล่าว แต่ชุมชน วิทยาศาสตร์ จำนวนมากและผู้ที่สนใจ AI ยังคงไม่ค่อยมีความหวังมากนักเกี่ยวกับทิศทางการพัฒนาของเทคโนโลยีนี้
ความกังวลว่า AI กำลังพัฒนาเร็วเกินไปและแซงหน้าการพัฒนาและการอนุมัติกฎระเบียบที่ควบคุม AI กำลังเพิ่มมากขึ้น
ศาสตราจารย์ Yoshua Bengio ผู้เชี่ยวชาญด้านวิทยาการคอมพิวเตอร์จากมหาวิทยาลัยมอนทรีออลและหนึ่งในนักวิทยาศาสตร์ด้าน AI ชั้นนำ ของโลก กล่าวว่า หาก OpenAI กลายเป็น "ความเสี่ยงระดับปานกลาง" ต่ออาวุธเคมีและชีวภาพในปัจจุบัน "นั่นจะยิ่งตอกย้ำความสำคัญและความเร่งด่วน" ของกฎหมาย เช่นเดียวกับกฎหมายที่กำลังถกเถียงกันอย่างดุเดือดในรัฐแคลิฟอร์เนียเพื่อควบคุมสาขานี้
นักวิทยาศาสตร์ท่านนี้เน้นย้ำว่าสถาบันดังกล่าวข้างต้นมีความจำเป็นอย่างยิ่งในบริบทของ AI ที่กำลังเข้าใกล้ระดับปัญญาประดิษฐ์ทั่วไป (AGI) มากขึ้น ซึ่งหมายถึงการมีความสามารถในการใช้เหตุผลเทียบเท่ากับมนุษย์
“ยิ่งโมเดล AI ชั้นนำเข้าใกล้ AGI มากเท่าไหร่ ความเสี่ยงก็จะยิ่งเพิ่มมากขึ้นเท่านั้น หากไม่ได้ดำเนินการป้องกันอย่างเหมาะสม ความสามารถในการใช้เหตุผลที่ดีขึ้นของ AI และการนำไปใช้ฉ้อโกงนั้นอันตรายอย่างยิ่ง” คุณเบงจิโอประเมิน
ที่มา: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
การแสดงความคิดเห็น (0)