:โทรศัพท์แสดงอินเทอร์เฟซการเรียนรู้ GPT-o1 ของ OpenAI - ภาพ: FINANCIAL TIMES
ตามที่ Financial Times รายงานเมื่อวันที่ 13 กันยายน บริษัท OpenAI ยอมรับว่าโมเดล GPT-o1 ซึ่งเพิ่งเปิดตัวเมื่อวันที่ 12 กันยายนนั้น "เพิ่ม" ความเสี่ยงที่ปัญญาประดิษฐ์ (AI) จะถูกนำไปใช้เพื่อสร้างอาวุธชีวภาพ "อย่างมีนัยสำคัญ"
เอกสารอธิบายการทำงานของ GPT-o1 ที่เผยแพร่โดย OpenAI ระบุว่าโมเดลใหม่นี้มี “ระดับความเสี่ยงปานกลาง” สำหรับปัญหาที่เกี่ยวข้องกับอาวุธเคมี อาวุธชีวภาพ อาวุธรังสี และอาวุธนิวเคลียร์ ซึ่งถือเป็นระดับความเสี่ยงสูงสุดที่ OpenAI เคยกำหนดให้กับโมเดล AI
ตามที่ OpenAI ระบุ นั่นหมายความว่า GPT-o1 อาจจะ "ปรับปรุง" ความสามารถของผู้เชี่ยวชาญที่ต้องการใช้ประโยชน์จากมันเพื่อสร้างอาวุธชีวภาพได้อย่างมาก
มิระ มูราติ ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยี (CTO) ของ OpenAI กล่าวว่า แม้ว่า GPT-o1 จะยังอยู่ในระยะทดลอง แต่ความสามารถขั้นสูงของโมเดลนี้ยังบังคับให้บริษัทต้อง "ระมัดระวัง" อย่างยิ่งเกี่ยวกับแผนงานในการเปิดตัวสู่สาธารณะ
นอกจากนี้ นางสาวมูราติยังยืนยันว่าโมเดลดังกล่าวได้รับการทดสอบอย่างละเอียดถี่ถ้วนโดยทีมผู้เชี่ยวชาญหลายสาขาซึ่ง OpenAI จ้างมาเพื่อทดสอบขีดจำกัดของโมเดลที่บริษัทพัฒนา
การทดสอบแสดงให้เห็นว่ารุ่น GPT-o1 ตอบสนองเกณฑ์ความปลอดภัยทั่วไปได้ดีกว่ารุ่นก่อนมาก Murati กล่าว
ไม่เพียงเท่านั้น ตัวแทนของ OpenAI ยังรับรองอีกด้วยว่าเวอร์ชันทดลองของ GPT-o1 นั้น "ปลอดภัยสำหรับการปรับใช้" และไม่สามารถสร้างความเสี่ยงที่ซับซ้อนมากกว่าเทคโนโลยีที่พัฒนาได้
แม้จะมีการรับรองดังกล่าว แต่ชุมชน วิทยาศาสตร์ จำนวนมากและผู้ที่สนใจ AI ยังคงไม่ค่อยมีความหวังมากนักเกี่ยวกับทิศทางการพัฒนาของเทคโนโลยีนี้
ความกังวลว่า AI กำลังพัฒนาเร็วเกินไปและเกินความเร็วของกฎระเบียบต่างๆ ที่ได้รับการพัฒนาและอนุมัติเพื่อควบคุม AI กำลังเพิ่มมากขึ้น
หาก OpenAI มีความเสี่ยงในระดับ "ปานกลาง" ต่ออาวุธเคมีและชีวภาพในปัจจุบัน "มันจะยิ่งตอกย้ำความสำคัญและความเร่งด่วนของกฎหมาย เช่นเดียวกับกฎหมายที่กำลังถกเถียงกันอย่างดุเดือดในรัฐแคลิฟอร์เนียเพื่อควบคุมสาขานี้" Yoshua Bengio ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่มหาวิทยาลัยมอนทรีออลและหนึ่งในนักวิทยาศาสตร์ด้าน AI ชั้นนำของโลก กล่าว
นักวิทยาศาสตร์ท่านนี้เน้นย้ำว่าสถาบันต่างๆ ดังกล่าวข้างต้นมีความจำเป็นอย่างยิ่งในบริบทของปัญญาประดิษฐ์ที่กำลังเข้าใกล้ระดับปัญญาประดิษฐ์ทั่วไป (AGI) มากขึ้น ซึ่งหมายถึงการมีศักยภาพในการใช้เหตุผลเทียบเท่ากับมนุษย์
“ยิ่งโมเดล AI ชั้นนำเข้าใกล้ AGI มากเท่าไร ความเสี่ยงก็จะเพิ่มมากขึ้นเท่านั้น หากไม่ได้ดำเนินการป้องกันอย่างเหมาะสม ความสามารถในการใช้เหตุผลของ AI ที่ได้รับการปรับปรุงและการใช้ AI เพื่อการฉ้อโกงนั้นเป็นอันตรายอย่างยิ่ง” คุณเบงจิโอประเมิน
ที่มา: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
การแสดงความคิดเห็น (0)