โลก ยังไม่พร้อมสำหรับปัญญาประดิษฐ์ทั่วไป (AGI) หรือช่วงเวลาที่ปัญญาประดิษฐ์มีความฉลาดเท่ากับสมองของมนุษย์ ตามที่นักวิจัยอาวุโสของ OpenAI กล่าว
ปัญญาประดิษฐ์ทั่วไปมีความเสี่ยงหรือไม่?
เป็นเวลาหลายปีที่นักวิจัยคาดการณ์ถึงการเกิดขึ้นของปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งระบบประดิษฐ์จะสามารถจัดการงานได้หลากหลายเทียบเท่ากับมนุษย์ หลายคนมองว่าการเกิดขึ้นของปัญญาประดิษฐ์นี้เป็นความเสี่ยงต่อการดำรงอยู่ เพราะมันอาจทำให้คอมพิวเตอร์สามารถทำงานในรูปแบบที่มนุษย์ไม่เคยจินตนาการมาก่อน
ตามที่นายไมล์ส บรินเดจ กล่าว โลกยังไม่พร้อมสำหรับช่วงเวลาของปัญญาประดิษฐ์ทั่วไป (AGI)
ขณะนี้ ชายผู้ได้รับมอบหมายให้ดูแลให้ OpenAI ผู้พัฒนา ChatGPT พร้อมสำหรับ AGI ยอมรับว่าทั้งโลกและตัวบริษัทเองยังไม่ "พร้อม" สำหรับขั้นตอนต่อไป ไมล์ส บรันเดจ เคยเป็น "ที่ปรึกษาอาวุโสของ OpenAI เกี่ยวกับความพร้อมสำหรับ AGI" แต่ได้ประกาศลาออกในสัปดาห์นี้ เนื่องจากบริษัทได้ยุบกลุ่มดังกล่าว
“ทั้ง OpenAI และห้องปฏิบัติการบุกเบิกอื่นๆ ยังไม่พร้อม [สำหรับ AGI] และโลกก็เช่นกัน เพื่อความชัดเจน ผมไม่คิดว่านี่เป็นคำกล่าวที่ขัดแย้งกันในหมู่ผู้นำของ OpenAI แต่เป็นคำถามที่ว่าบริษัทและโลกกำลังอยู่ในเส้นทางที่จะพร้อมในเวลาที่เหมาะสมหรือไม่” บรันเดจ ผู้ซึ่งใช้เวลาหกปีในการช่วยกำหนดแนวทางริเริ่มด้านความปลอดภัยของ AI ของบริษัทกล่าว
การลาออกของ Brundage ถือเป็นการลาออกครั้งล่าสุดจากทีมความปลอดภัยของ OpenAI Jan Leike นักวิจัยชื่อดัง ได้ลาออกหลังจากกล่าวว่า "วัฒนธรรมและกระบวนการด้านความปลอดภัยได้ลดความสำคัญลงเมื่อเทียบกับผลิตภัณฑ์ที่ทันสมัย" Ilya Sutskever ผู้ร่วมก่อตั้งก็ได้ลาออกเช่นกัน เพื่อก่อตั้งสตาร์ทอัพด้าน AI ของตัวเองที่มุ่งเน้นการพัฒนา AGI ที่ปลอดภัย
การยุบกลุ่ม "AGI Readiness" ของ Brundage เกิดขึ้นเพียงไม่กี่เดือนหลังจากที่บริษัทยุบกลุ่ม "Superalignment" ที่มุ่งเน้นในการบรรเทาความเสี่ยงด้าน AI ในระยะยาว ซึ่งเผยให้เห็นความตึงเครียดระหว่างภารกิจเดิมของ OpenAI และความทะเยอทะยานทางการค้าของบริษัท
แรงกดดันด้านกำไรผลักดันให้ OpenAI ออกห่างจากความปลอดภัย
มีรายงานว่า OpenAI กำลังเผชิญกับแรงกดดันให้เปลี่ยนผ่านจากองค์กรไม่แสวงหากำไรเป็นบริษัทที่แสวงหากำไรภายในสองปี มิฉะนั้นอาจเสี่ยงสูญเสียเงินทุนจากการระดมทุนรอบล่าสุดมูลค่า 6.6 พันล้านดอลลาร์สหรัฐ การเปลี่ยนแปลงไปสู่การดำเนินธุรกิจเชิงพาณิชย์นี้เป็นเรื่องที่ Brundage กังวลมานาน โดยเขาเคยแสดงความกังขามาตั้งแต่ปี 2019 ซึ่งเป็นปีที่ OpenAI ก่อตั้งแผนกแสวงหากำไรขึ้นเป็นครั้งแรก
แซม อัลท์แมน ซีอีโอของ OpenAI กำลังประสบกับ "ความปวดหัว" เนื่องจากบริษัทต้องเผชิญกับแรงกดดันในการแสวงหาผลกำไร
ในการอธิบายการลาออกของเขา บรันเดจได้อ้างถึงข้อจำกัดที่เพิ่มมากขึ้นเกี่ยวกับเสรีภาพในการค้นคว้าและตีพิมพ์ผลงานในบริษัทอันทรงเกียรติแห่งนี้ เขาเน้นย้ำถึงความจำเป็นในการมีเสียงที่เป็นอิสระในการอภิปรายนโยบายด้าน AI โดยปราศจากอคติในอุตสาหกรรมและความขัดแย้งทางผลประโยชน์ หลังจากได้ให้คำปรึกษาแก่ผู้นำของ OpenAI เกี่ยวกับการเตรียมการภายในแล้ว เขาเชื่อว่าขณะนี้เขาสามารถสร้างผลกระทบที่ยิ่งใหญ่ขึ้นต่อการกำกับดูแล AI ระดับโลกจากภายนอกองค์กรได้
การลาออกครั้งนี้ยังสะท้อนให้เห็นถึงความแตกต่างทางวัฒนธรรมที่ลึกซึ้งยิ่งขึ้นภายใน OpenAI นักวิจัยจำนวนมากเข้าร่วมเพื่อพัฒนางานวิจัย AI และปัจจุบันพบว่าตนเองอยู่ในสภาพแวดล้อมที่ขับเคลื่อนด้วยผลิตภัณฑ์มากขึ้นเรื่อยๆ การจัดสรรทรัพยากรภายในองค์กรกลายเป็นประเด็นร้อน รายงานระบุว่าทีมของ Leike ไม่ได้รับพลังการประมวลผลสำหรับการวิจัยด้านความปลอดภัยก่อนที่จะถูกยุบ
ในช่วงไม่กี่เดือนที่ผ่านมา OpenAI ต้องเผชิญกับคำถามเกี่ยวกับแผนการพัฒนาปัญญาประดิษฐ์และความจริงจังด้านความปลอดภัย แม้ว่า OpenAI จะก่อตั้งขึ้นในฐานะองค์กรไม่แสวงหาผลกำไรที่อุทิศตนเพื่อการวิจัยวิธีการสร้างปัญญาประดิษฐ์ที่ปลอดภัย แต่ความสำเร็จของ ChatGPT ได้นำมาซึ่งการลงทุนครั้งใหญ่และแรงกดดันในการนำเทคโนโลยีใหม่นี้มาใช้เพื่อแสวงหาผลกำไร
ที่มา: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
การแสดงความคิดเห็น (0)