ทั้งสองบริษัทจะร่วมมือกับสถาบันความปลอดภัย AI ของสหรัฐอเมริกา ซึ่งเป็นหน่วยงานหนึ่งของสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) ซึ่งเป็นหน่วยงานของรัฐบาลกลางสหรัฐฯ ความร่วมมือครั้งนี้ถือเป็นก้าวสำคัญในการบริหารจัดการและกำกับดูแลเทคโนโลยี AI ซึ่งเป็นข้อกังวลสำคัญนับตั้งแต่เปิดตัว ChatGPT ของ OpenAI
“นี่เป็นเพียงจุดเริ่มต้น แต่เป็นก้าวสำคัญในการพยายามบริหารจัดการอนาคตของ AI อย่างมีความรับผิดชอบ” Elizabeth Kelly ผู้อำนวยการสถาบันความปลอดภัย AI ของสหรัฐอเมริกา กล่าว
ภายใต้ข้อตกลงนี้ สถาบันความปลอดภัย AI ของสหรัฐอเมริกา (US AI Safety Institute) จะให้ข้อเสนอแนะแก่ทั้งสองบริษัทเกี่ยวกับการปรับปรุงด้านความปลอดภัยที่อาจเกิดขึ้นกับโมเดลต่างๆ ทั้งก่อนและหลังการเผยแพร่สู่สาธารณะ นอกจากนี้ สถาบันยังจะทำงานอย่างใกล้ชิดกับสถาบันความปลอดภัย AI ของสหราชอาณาจักรในกระบวนการนี้ด้วย
“ความร่วมมือกับสถาบันความปลอดภัย AI ของสหรัฐอเมริกา (US AI Safety Institute) ใช้ประโยชน์จากความเชี่ยวชาญอันกว้างขวางของสถาบันเพื่อทดสอบโมเดลของเราอย่างเข้มงวดก่อนนำไปใช้งานอย่างแพร่หลาย สิ่งนี้ช่วยเพิ่มความสามารถของเราในการระบุและลดความเสี่ยง ส่งเสริมการพัฒนา AI อย่างมีความรับผิดชอบ” แจ็ค คลาร์ก ผู้ร่วมก่อตั้งและหัวหน้าฝ่ายนโยบายของ Anthropic กล่าว
การเคลื่อนไหวดังกล่าวเป็นส่วนหนึ่งของความพยายามในการบังคับใช้คำสั่งฝ่ายบริหาร AI ของทำเนียบขาวที่จะมีผลบังคับใช้ในปี 2023 ซึ่งมีเป้าหมายเพื่อสร้างกรอบทางกฎหมายสำหรับการใช้งานโมเดล AI อย่างรวดเร็วในสหรัฐอเมริกา
แต่ในขณะที่ รัฐบาล กลางกำลังดำเนินการตามแนวทางสมัครใจ สมาชิกรัฐสภาในรัฐแคลิฟอร์เนีย ซึ่งเป็นศูนย์กลางเทคโนโลยีของอเมริกา ได้ผ่านร่างกฎหมายความปลอดภัยด้าน AI ในระดับรัฐเมื่อวันที่ 28 สิงหาคม ร่างกฎหมายนี้ หากผู้ว่าการรัฐลงนาม จะทำให้มีการกำหนดกฎระเบียบที่เข้มงวดยิ่งขึ้นสำหรับอุตสาหกรรม AI
แซม อัลท์แมน ซีอีโอของ OpenAI แสดงการสนับสนุนการควบคุม AI ในระดับชาติ มากกว่าระดับรัฐ โดยให้เหตุผลว่าการกระทำดังกล่าวจะช่วยหลีกเลี่ยงความเสี่ยงในการขัดขวางการวิจัยและนวัตกรรมในสาขา AI
การเคลื่อนไหวของบริษัทเทคโนโลยีชั้นนำและรัฐบาลสหรัฐฯ แสดงให้เห็นถึงแนวโน้มในการสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัยในสาขา AI ที่กำลังพัฒนาอย่างรวดเร็ว
ที่มา: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
การแสดงความคิดเห็น (0)