โลก ยังไม่พร้อมสำหรับปัญญาประดิษฐ์ทั่วไป (AGI) หรือช่วงเวลาที่ปัญญาประดิษฐ์มีความฉลาดเท่ากับสมองของมนุษย์ ตามที่นักวิจัยอาวุโสของ OpenAI กล่าว
ปัญญาประดิษฐ์ทั่วไปมีความเสี่ยงหรือไม่?
เป็นเวลาหลายปีที่นักวิจัยคาดเดาเกี่ยวกับการเกิดขึ้นของปัญญาประดิษฐ์ทั่วไป หรือ AGI เมื่อระบบเทียมจะสามารถจัดการกับปัญหาต่างๆ เช่นเดียวกับมนุษย์ในงานต่างๆ หลายๆ คนมองว่าการเกิดขึ้นของเทคโนโลยีนี้เป็นความเสี่ยงต่อการดำรงอยู่ เนื่องจากเทคโนโลยีนี้อาจทำให้คอมพิวเตอร์ทำงานในรูปแบบที่มนุษย์ไม่เคยจินตนาการได้
ตามที่นายไมล์ส บรินเดจ กล่าว โลกยังไม่พร้อมสำหรับช่วงเวลาของปัญญาประดิษฐ์ทั่วไป (AGI)
ขณะนี้ ชายผู้ได้รับมอบหมายให้ดูแลให้นักพัฒนา ChatGPT อย่าง OpenAI พร้อมสำหรับการมาถึงของ AGI ยอมรับว่าทั้งโลกและบริษัทเอง "ยังไม่พร้อม" สำหรับขั้นตอนต่อไป Miles Brundage เคยเป็น "ที่ปรึกษาอาวุโสด้านความพร้อมสำหรับ AGI" ของ OpenAI แต่ได้ประกาศลาออกในสัปดาห์นี้ เนื่องจากบริษัทได้ยุบกลุ่มดังกล่าว
“ทั้ง OpenAI และห้องปฏิบัติการบุกเบิกอื่นๆ ยังไม่พร้อมสำหรับ AGI และโลกก็ยังไม่พร้อมเช่นกัน เพื่อให้ชัดเจน ฉันไม่คิดว่านี่เป็นคำกล่าวที่ขัดแย้งกันในหมู่ผู้นำของ OpenAI แต่เป็นคำถามว่าบริษัทและโลกกำลังอยู่ในเส้นทางที่จะพร้อมในเวลาที่เหมาะสมหรือไม่” Brundage ผู้ใช้เวลา 6 ปีในการช่วยกำหนดแนวทางริเริ่มด้านความปลอดภัยของ AI ของบริษัทกล่าว
การลาออกของ Brundage ถือเป็นการลาออกครั้งล่าสุดในบรรดาการลาออกครั้งสำคัญหลายครั้งของทีมความปลอดภัยของ OpenAI Jan Leike นักวิจัยชื่อดังลาออกจากบริษัทหลังจากอ้างว่า "วัฒนธรรมและกระบวนการด้านความปลอดภัยมีความสำคัญรองลงมาจากผลิตภัณฑ์ที่มีความแวววาว" ผู้ก่อตั้งร่วม Ilya Sutskever ยังได้ออกไปเปิดตัวสตาร์ทอัป AI ของตัวเองที่เน้นการพัฒนา AGI ที่ปลอดภัย
การยุบกลุ่ม "AGI Readiness" ของ Brundage เกิดขึ้นเพียงไม่กี่เดือนหลังจากบริษัทยุบกลุ่ม "Superalignment" ซึ่งมุ่งเน้นที่การลดความเสี่ยงด้าน AI ในระยะยาว ซึ่งเผยให้เห็นความตึงเครียดระหว่างภารกิจเดิมของ OpenAI และความทะเยอทะยานทางการค้าของบริษัท
แรงกดดันด้านกำไรผลักดันให้ OpenAI ออกจากเส้นทางที่ปลอดภัย
มีรายงานว่า OpenAI กำลังเผชิญกับแรงกดดันในการเปลี่ยนจากองค์กรไม่แสวงหากำไรไปเป็นบริษัทแสวงหากำไรภายใน 2 ปี หรือไม่เช่นนั้นก็เสี่ยงที่จะสูญเสียเงินทุนจากรอบการลงทุน 6.6 พันล้านดอลลาร์สหรัฐฯ ล่าสุด การเปลี่ยนแปลงไปสู่เชิงพาณิชย์นี้ทำให้ Brundage เป็นกังวลมานาน โดยแสดงความกังวลมาตั้งแต่เมื่อปี 2019 เมื่อ OpenAI ก่อตั้งแผนกแสวงหากำไรขึ้นเป็นครั้งแรก
Sam Altman ซีอีโอของ OpenAI กำลังประสบกับ "ปัญหา" เนื่องจากบริษัทต้องเผชิญกับแรงกดดันในการแสวงหาผลกำไร
ในการอธิบายการจากไปของเขา บรันเดจได้ยกตัวอย่างข้อจำกัดที่เพิ่มมากขึ้นเกี่ยวกับเสรีภาพในการค้นคว้าและเผยแพร่ผลงานของเขาในบริษัทที่มีชื่อเสียงแห่งนี้ เขาเน้นย้ำถึงความจำเป็นในการมีเสียงที่เป็นอิสระในการอภิปรายนโยบาย AI โดยปราศจากอคติทางอุตสาหกรรมและความขัดแย้งทางผลประโยชน์ หลังจากให้คำแนะนำแก่ผู้นำของ OpenAI เกี่ยวกับการเตรียมการภายใน เขาเชื่อว่าตอนนี้เขาสามารถสร้างผลกระทบที่มากขึ้นต่อการกำกับดูแล AI ระดับโลกจากภายนอกองค์กรได้
การจากไปครั้งนี้ยังสะท้อนให้เห็นถึงความแตกต่างทางวัฒนธรรมที่ลึกซึ้งมากขึ้นภายใน OpenAI อีกด้วย นักวิจัยจำนวนมากได้รวมตัวกันเพื่อพัฒนาการวิจัย AI และปัจจุบันพบว่าตนเองอยู่ในสภาพแวดล้อมที่ขับเคลื่อนด้วยผลิตภัณฑ์เพิ่มมากขึ้น การจัดสรรทรัพยากรภายในกลายเป็นจุดวิกฤต — รายงานระบุว่าทีมของ Leike ไม่ได้รับพลังการประมวลผลเพื่อการวิจัยด้านความปลอดภัย ก่อนที่จะถูกยุบ
ในช่วงไม่กี่เดือนที่ผ่านมา OpenAI เผชิญคำถามเกี่ยวกับแผนการพัฒนาปัญญาประดิษฐ์ และความจริงจังของบริษัทต่อความปลอดภัย แม้ว่าจะก่อตั้งเป็นองค์กรไม่แสวงหาผลกำไรด้วยจุดมุ่งหมายในการค้นคว้าวิธีการสร้างปัญญาประดิษฐ์อย่างปลอดภัย แต่ความสำเร็จของ ChatGPT ก็ทำให้เกิดการลงทุนและแรงกดดันมหาศาลในการใช้เทคโนโลยีใหม่เพื่อแสวงหากำไร
ที่มา: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
การแสดงความคิดเห็น (0)