จากแหล่งข่าว Tech.co ระบุว่า ในขณะที่เกิดข้อถกเถียงเกี่ยวกับการที่ Sam Altman ซึ่งเป็น CEO ของบริษัทถูกไล่ออกและกลับมาที่ OpenAI นั้น ก็มีข่าวลือออกมาว่าจดหมายที่นักวิจัยของบริษัทส่งถึงคณะกรรมการบริหารนั้นแสดงความกังวลเกี่ยวกับโมเดลปัญญาประดิษฐ์ขั้นสูงสุดที่กำลังพัฒนาอยู่ ซึ่งอาจก่อให้เกิดภัยคุกคามต่อมนุษยชาติได้
(ภาพประกอบ)
โครงการ Q*
โมเดลที่ภายในรู้จักในชื่อ Project Q* (อ่านว่า Q-star) ถือเป็นความก้าวหน้าครั้งสำคัญในการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) ของ OpenAI ซึ่งเป็นสาขาหนึ่งของปัญญาประดิษฐ์ระดับสูงที่มีความเป็นอิสระสูง ซึ่งสามารถเรียนรู้ได้สะสมและทำงานได้ดีกว่ามนุษย์ในงานส่วนใหญ่
Q* อาจเป็นก้าวกระโดดครั้งสำคัญในด้านปัญญาประดิษฐ์ด้วยการปรับปรุงความสามารถในการใช้เหตุผลของ AI อย่างรุนแรง และทำให้ OpenAI เข้าใกล้ความก้าวหน้าครั้งสำคัญในการพัฒนา AGI มากขึ้น ตามที่ผู้ที่คุ้นเคยกับเรื่องนี้เปิดเผย
แตกต่างจากโมเดล AI ในปัจจุบันที่เน้นความสามารถในการสร้างการตอบสนองโดยอิงจากข้อมูลที่เรียนรู้ก่อนหน้านี้ AGI เป็นระบบอัตโนมัติที่สามารถใช้ "เหตุผล" ในการตัดสินใจได้ ซึ่งทำให้มีความสามารถในการแก้ปัญหาในระดับมนุษย์
แม้ว่า AGI จะยังไม่เกิดขึ้นจริงอย่างเต็มที่ แต่ผู้เชี่ยวชาญหลายคนเชื่อว่าเทคโนโลยีนี้จะมีความสามารถในการเรียนรู้แบบสะสม ซึ่งเป็นลักษณะอีกประการหนึ่งที่ทำให้มนุษย์สามารถพัฒนาความสามารถของตนเองได้
บางแหล่งข้อมูลอ้างว่า Q* - โครงการของ OpenAI สามารถแสดงคุณสมบัติข้างต้นในการแก้ปัญหาได้ ไม่เพียงเท่านั้น ด้วยพลังการประมวลผลอันมหาศาลของแบบจำลอง Q* ยังสามารถทำผลงานได้ดีกว่านักเรียนชั้นประถมศึกษา แสดงให้เห็นถึงทักษะการใช้เหตุผลและความสามารถทางปัญญาที่สำคัญเมื่อเทียบกับฟังก์ชันการทำงานของเทคโนโลยี AI ในปัจจุบัน
ไม่ชัดเจนว่า Q* อยู่ในการพัฒนามานานเพียงใด และมีการประยุกต์ใช้ได้อย่างไร แต่ OpenAI ได้แจ้งให้พนักงานและสมาชิกคณะกรรมการทราบเกี่ยวกับโครงการดังกล่าว ก่อนที่เรื่องอื้อฉาวเกี่ยวกับบุคลากรจะเกิดขึ้น
ความกังวลด้านจริยธรรม
ในขณะที่ Sam Altman ซีอีโอของ OpenAI รู้สึกมั่นใจว่าเทคโนโลยี AGI จะช่วยขับเคลื่อนการสร้างสรรค์นวัตกรรม นักวิจัยบางส่วนก็รีบชี้ให้เห็นถึงอันตรายที่อาจเกิดขึ้นจากโครงการนี้
ในจดหมายถึงคณะกรรมการ นักวิจัยได้เตือนถึงอันตรายที่อาจเกิดขึ้นจากอัลกอริทึมอันทรงพลังนี้ต่อมนุษยชาติ ความกังวลด้านจริยธรรมเกี่ยวกับ AI ที่ระบุไว้ในจดหมายไม่ได้รับการเปิดเผย แต่คำเตือนเหล่านี้เพียงพอที่จะสนับสนุนการตัดสินใจของคณะกรรมการในการไล่อัลท์แมนออก
ในขณะเดียวกัน เหตุผลเบื้องต้นที่ให้ไว้สำหรับการไล่อัลท์แมนออกคือซีอีโอ “สื่อสารได้ไม่ดี” ไม่นานเขาก็ได้ตำแหน่งใหม่ที่ไมโครซอฟท์ การกระทำนี้ทำให้พนักงาน 700 คนจากทั้งหมด 770 คนของ OpenAI ขู่ว่าจะทำเช่นเดียวกันหากซีอีโอคนดังกล่าวไม่ได้รับการบรรจุเข้าทำงานอีกครั้ง
เนื่องจากบริษัทมีความเสี่ยงที่จะล้มละลาย คณะกรรมการของ OpenAI จึงจำเป็นต้องแต่งตั้ง Altman กลับมาดำรงตำแหน่งสูงสุด ซึ่งส่งผลให้มีการปฏิรูปทีมผู้บริหารของบริษัทครั้งใหญ่ และยังเน้นย้ำถึงความขัดแย้งอย่างรุนแรงภายในกลุ่มผู้นำอีกด้วย
ขณะนี้ เมื่ออัลท์แมนกลับมาดำรงตำแหน่งอีกครั้ง และ Project Q* อาจได้รับไฟเขียวอีกครั้ง เรื่องนี้ก็ทำให้เกิดคำถามใหม่ๆ ขึ้นมา
Project Q* มีความสมจริงแค่ไหน?
แม้ว่าช่วงเวลาอันวุ่นวายของ OpenAI จะทำให้แนวคิดของ AGI ได้รับความสนใจมากขึ้น แต่นี่ไม่ใช่ครั้งแรกที่ Altman พูดถึงเทคโนโลยีดังกล่าว
ผู้ประกอบการจากซิลิคอนวัลเลย์พบว่าตัวเองตกที่นั่งลำบากในเดือนกันยายน หลังจากเปรียบเทียบ AGI กับ "มนุษย์ธรรมดาๆ ที่คุณอาจจ้างมาเป็นเพื่อนร่วมงาน" เขาได้ต่อยอดความคิดเห็นที่เขาเคยแสดงไว้เมื่อปีที่แล้วว่า AI สามารถ "ทำทุกอย่างที่คุณทำได้กับเพื่อนร่วมงานที่ทำงานจากระยะไกล" รวมถึงการเรียนรู้ที่จะเป็นแพทย์และโปรแกรมเมอร์ที่ดี
แม้ว่าการเปรียบเทียบ AGI กับสติปัญญาของ "มนุษย์ทั่วไป" จะไม่ใช่เรื่องใหม่ แต่การใช้คำนี้ของ Altman ถือเป็นเรื่อง "น่ารังเกียจ" โดยนักจริยธรรมด้าน AI และศาสตราจารย์ Henry Shevlin จากมหาวิทยาลัยเคมบริดจ์ เนื่องจากความกังวลเกี่ยวกับผลกระทบของ AI ต่อความมั่นคงในงานที่เพิ่มมากขึ้น
ความก้าวหน้าที่อาจเกิดขึ้นใน AGI ยังทำให้เกิดเสียงเตือนสำหรับนักวิจัยคนอื่นๆ ด้วย เนื่องจากเทคโนโลยีดังกล่าวได้รับการพัฒนาเร็วกว่าที่มนุษย์จะเข้าใจถึงผลกระทบของมันได้อย่างสมบูรณ์
OpenAI เชื่อว่าผลลัพธ์เชิงบวกของ AGI ทำให้ “สนามทุ่นระเบิด” ที่เต็มไปด้วยความเสี่ยงนี้คุ้มค่าแก่การแสวงหา แต่ในขณะที่บริษัทยังคงเดินหน้าต่อไปในทิศทางนี้ หลายคนกังวลว่า Altman กำลังให้ความสำคัญกับความสำเร็จเชิงพาณิชย์มากกว่าผลประโยชน์ของผู้ใช้และสังคม
Phuong Anh (ที่มา: Tech.co, The Guardian)
แหล่งที่มา
การแสดงความคิดเห็น (0)