โลก ยังไม่พร้อมสำหรับปัญญาประดิษฐ์ทั่วไป (AGI) หรือจุดที่ปัญญาประดิษฐ์มีความฉลาดเท่ากับสมองของมนุษย์ ตามที่นักวิจัยอาวุโสของ OpenAI กล่าว
ปัญญาประดิษฐ์ทั่วไปมีความเสี่ยงหรือไม่?
เป็นเวลาหลายปีที่นักวิจัยคาดการณ์ถึงการเกิดขึ้นของปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งระบบประดิษฐ์จะสามารถจัดการงานได้หลากหลายเทียบเท่ากับมนุษย์ หลายคนมองว่าการเกิดขึ้นของปัญญาประดิษฐ์นี้เป็นความเสี่ยงต่อการดำรงอยู่ เพราะมันอาจทำให้คอมพิวเตอร์ทำงานในรูปแบบที่มนุษย์ไม่อาจจินตนาการได้
ตามที่นายไมล์ส บรินเดจ กล่าว โลกยังไม่พร้อมสำหรับยุคของปัญญาประดิษฐ์ทั่วไป (AGI)
ขณะนี้ ชายผู้ได้รับมอบหมายให้ดูแลให้ OpenAI ผู้พัฒนา ChatGPT พร้อมสำหรับ AGI ยอมรับว่าทั้งโลกและตัวบริษัทเองยังไม่ "พร้อม" สำหรับขั้นตอนต่อไป ไมล์ส บรันเดจ ดำรงตำแหน่ง "ที่ปรึกษาอาวุโสของ OpenAI เกี่ยวกับความพร้อมสำหรับ AGI" แต่ได้ประกาศลาออกในสัปดาห์นี้ เนื่องจากบริษัทได้ยุบกลุ่มดังกล่าว
“ทั้ง OpenAI และห้องปฏิบัติการบุกเบิกอื่นๆ ยังไม่พร้อม (สำหรับ AGI) และโลกก็เช่นกัน เพื่อความชัดเจน ผมไม่คิดว่านี่เป็นคำกล่าวที่ขัดแย้งกันในหมู่ผู้นำของ OpenAI แต่เป็นคำถามที่ว่าบริษัทและโลกกำลังอยู่ในเส้นทางที่จะพร้อมในเวลาที่เหมาะสมหรือไม่” บรันเดจ ผู้ซึ่งใช้เวลาหกปีในการช่วยกำหนดแนวทางริเริ่มด้านความปลอดภัยของ AI ของบริษัทกล่าว
การลาออกของ Brundage ถือเป็นการลาออกครั้งล่าสุดจากทีมความปลอดภัยของ OpenAI Jan Leike นักวิจัยชื่อดัง ได้ลาออกหลังจากกล่าวว่า "วัฒนธรรมและกระบวนการด้านความปลอดภัยได้ลดความสำคัญลงเมื่อเทียบกับผลิตภัณฑ์ที่ทันสมัย" Ilya Sutskever ผู้ร่วมก่อตั้งก็ได้ลาออกเช่นกัน เพื่อก่อตั้งสตาร์ทอัพด้าน AI ของตัวเองที่มุ่งเน้นการพัฒนา AGI ที่ปลอดภัย
การยุบกลุ่ม "AGI Readiness" ของ Brundage เกิดขึ้นเพียงไม่กี่เดือนหลังจากที่บริษัทยุบกลุ่ม "Superalignment" ที่มุ่งเน้นในการบรรเทาความเสี่ยงด้าน AI ในระยะยาว ซึ่งเผยให้เห็นความตึงเครียดระหว่างภารกิจเดิมของ OpenAI และความทะเยอทะยานทางการค้าของบริษัท
แรงกดดันด้านกำไรผลักดัน OpenAI ออกจากเส้นทางที่ปลอดภัย
มีรายงานว่า OpenAI กำลังเผชิญกับแรงกดดันให้เปลี่ยนผ่านจากองค์กรไม่แสวงหากำไรเป็นบริษัทที่แสวงหากำไรภายในสองปี มิฉะนั้นอาจเสี่ยงต่อการสูญเสียเงินทุนจากการระดมทุนรอบล่าสุดมูลค่า 6.6 พันล้านดอลลาร์สหรัฐ การเปลี่ยนแปลงไปสู่การดำเนินธุรกิจเชิงพาณิชย์นี้เป็นเรื่องที่ Brundage กังวลมานาน โดยเขาได้แสดงความกังวลมาตั้งแต่ปี 2019 เมื่อ OpenAI ก่อตั้งแผนกแสวงหากำไรขึ้นเป็นครั้งแรก
แซม อัลท์แมน ซีอีโอของ OpenAI กำลังประสบกับ "ความปวดหัว" เนื่องจากบริษัทต้องเผชิญแรงกดดันในการแสวงหาผลกำไร
ในการอธิบายการลาออกของเขา บรันเดจได้อ้างถึงข้อจำกัดที่เพิ่มมากขึ้นเกี่ยวกับเสรีภาพในการค้นคว้าและตีพิมพ์ผลงานในบริษัทชั้นนำแห่งนี้ เขาเน้นย้ำถึงความจำเป็นในการมีเสียงที่เป็นอิสระในการอภิปรายนโยบายด้าน AI โดยปราศจากอคติในอุตสาหกรรมและความขัดแย้งทางผลประโยชน์ หลังจากได้ให้คำปรึกษาแก่ผู้นำของ OpenAI เกี่ยวกับการเตรียมการภายใน เขาเชื่อว่าขณะนี้เขาสามารถสร้างผลกระทบที่มากขึ้นต่อการกำกับดูแลด้าน AI ระดับโลกจากภายนอกองค์กรได้
การลาออกครั้งนี้ยังสะท้อนให้เห็นถึงความแตกต่างทางวัฒนธรรมที่ลึกซึ้งยิ่งขึ้นภายใน OpenAI นักวิจัยจำนวนมากเข้าร่วมเพื่อพัฒนางานวิจัย AI และปัจจุบันพบว่าตนเองอยู่ในสภาพแวดล้อมที่ขับเคลื่อนด้วยผลิตภัณฑ์มากขึ้นเรื่อยๆ การจัดสรรทรัพยากรภายในองค์กรกลายเป็นประเด็นร้อน รายงานระบุว่าทีมของ Leike ไม่ได้รับพลังการประมวลผลสำหรับการวิจัยด้านความปลอดภัยก่อนที่จะถูกยุบ
ในช่วงไม่กี่เดือนที่ผ่านมา OpenAI ต้องเผชิญกับคำถามเกี่ยวกับแผนการพัฒนาปัญญาประดิษฐ์และความสำคัญของความปลอดภัย แม้จะก่อตั้งขึ้นในฐานะองค์กรไม่แสวงหาผลกำไรที่มุ่งเน้นการวิจัยวิธีการสร้างปัญญาประดิษฐ์ที่ปลอดภัย แต่ความสำเร็จของ ChatGPT ก็นำมาซึ่งการลงทุนและแรงกดดันมหาศาลในการนำเทคโนโลยีใหม่นี้มาใช้เพื่อแสวงหาผลกำไร
ที่มา: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
การแสดงความคิดเห็น (0)