จากแหล่งข่าว Tech.co ระบุว่า ในขณะที่ยังมีข้อถกเถียงเกี่ยวกับการที่ Sam Altman ซึ่งเป็น CEO โดนไล่ออกแล้วกลับมาที่ OpenAI อยู่นั้น ข่าวลือหนึ่งก็คือจดหมายที่นักวิจัยของบริษัทส่งถึงคณะกรรมการบริหาร ซึ่งแสดงความกังวลเกี่ยวกับการพัฒนาโมเดลปัญญาประดิษฐ์ขั้นสูงสุด (AI) ซึ่งอาจก่อให้เกิดภัยคุกคามต่อมนุษยชาติได้
(ภาพประกอบ)
โครงการ Q*
โมเดลที่ภายในรู้จักในชื่อ Project Q* (อ่านว่า Q-star) ถือเป็นความก้าวหน้าครั้งสำคัญในการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) ของ OpenAI ซึ่งเป็นสาขาหนึ่งของปัญญาประดิษฐ์ระดับสูงที่มีความอิสระสูง และสามารถเรียนรู้ได้แบบสะสมและทำงานได้ดีกว่ามนุษย์ในงานส่วนใหญ่
Q* อาจเป็นก้าวกระโดดครั้งสำคัญในด้านปัญญาประดิษฐ์ด้วยการปรับปรุงความสามารถในการใช้เหตุผลของ AI อย่างรุนแรง และทำให้ OpenAI เข้าใกล้ความก้าวหน้าครั้งสำคัญในการพัฒนา AGI มากขึ้น ตามที่ผู้ที่คุ้นเคยกับเรื่องนี้เปิดเผย
แตกต่างจากโมเดล AI ในปัจจุบันที่เน้นความสามารถในการสร้างการตอบสนองโดยอิงจากข้อมูลที่เรียนรู้ก่อนหน้านี้ AGI เป็นระบบอัตโนมัติที่สามารถใช้ "เหตุผล" ในการตัดสินใจได้ ซึ่งทำให้มีความสามารถในการแก้ปัญหาในระดับมนุษย์
แม้ว่า AGI จะยังไม่เกิดขึ้นจริงอย่างเต็มที่ แต่ผู้เชี่ยวชาญหลายคนเชื่อว่าเทคโนโลยีนี้จะมีความสามารถในการเรียนรู้แบบสะสม ซึ่งเป็นลักษณะอีกประการหนึ่งที่ทำให้มนุษย์สามารถพัฒนาความสามารถของตนเองได้
บางแหล่งข้อมูลอ้างว่า Q* - โครงการของ OpenAI สามารถแสดงคุณสมบัติข้างต้นในการแก้ปัญหาได้ ไม่เพียงเท่านั้น ด้วยพลังการประมวลผลอันมหาศาลของแบบจำลอง Q* ยังสามารถทำผลงานได้ดีกว่านักเรียนชั้นประถมศึกษา แสดงให้เห็นถึงทักษะการใช้เหตุผลและความสามารถทางปัญญาที่เหนือกว่าความสามารถของเทคโนโลยี AI ในปัจจุบันอย่างมาก
ไม่ชัดเจนว่า Q* อยู่ในการพัฒนามานานเพียงใด และมีการประยุกต์ใช้ได้อย่างไร แต่ OpenAI ได้แจ้งให้พนักงานและสมาชิกคณะกรรมการทราบเกี่ยวกับโครงการดังกล่าว ก่อนที่เรื่องอื้อฉาวเกี่ยวกับบุคลากรจะเกิดขึ้น
ความกังวลด้านจริยธรรม
แม้ว่า Sam Altman ซีอีโอของ OpenAI รู้สึกมั่นใจว่าเทคโนโลยี AGI จะช่วยขับเคลื่อนการสร้างสรรค์นวัตกรรม แต่บรรดานักวิจัยบางส่วนก็รีบชี้ให้เห็นถึงอันตรายที่อาจเกิดขึ้นจากโครงการนี้
ในจดหมายถึงคณะกรรมการ นักวิจัยได้เตือนถึงอันตรายที่อาจเกิดขึ้นจากอัลกอริทึมอันทรงพลังนี้ต่อมนุษยชาติ ความกังวลด้านจริยธรรมเกี่ยวกับ AI ที่ระบุไว้ในจดหมายไม่ได้รับการเปิดเผย แต่คำเตือนเหล่านี้เพียงพอที่จะสนับสนุนการตัดสินใจของคณะกรรมการในการไล่อัลท์แมนออก
ในขณะเดียวกัน เหตุผลเบื้องต้นที่ให้ไว้สำหรับการไล่อัลท์แมนออกคือซีอีโอ “สื่อสารได้ไม่ดี” ไม่นานเขาก็ได้ตำแหน่งใหม่ที่ไมโครซอฟท์ การกระทำนี้ทำให้พนักงาน 700 คนจากทั้งหมด 770 คนของ OpenAI ขู่ว่าจะทำเช่นเดียวกันหากซีอีโอคนดังกล่าวไม่ได้รับการบรรจุเข้าทำงานอีกครั้ง
เนื่องจากบริษัทมีความเสี่ยงที่จะล้มละลาย คณะกรรมการของ OpenAI จึงจำเป็นต้องแต่งตั้ง Altman กลับเข้ารับตำแหน่งสูงสุด ซึ่งส่งผลให้มีการปฏิรูปทีมผู้บริหารของบริษัทครั้งใหญ่ และยังเน้นย้ำถึงความขัดแย้งอย่างรุนแรงภายในกลุ่มผู้นำอีกด้วย
ตอนนี้ Altman กลับมาดำรงตำแหน่งอีกครั้ง และ Project Q* ก็มีแนวโน้มที่จะได้รับไฟเขียวอีกครั้ง ซึ่งเรื่องนี้ก็ทำให้เกิดคำถามใหม่ๆ ขึ้นมา
Project Q* มีความสมจริงแค่ไหน?
แม้ว่ายุคสมัยอันวุ่นวายของ OpenAI จะทำให้แนวคิดของ AGI ได้รับความสนใจมากขึ้น แต่นี่ไม่ใช่ครั้งแรกที่ Altman พูดถึงเทคโนโลยีดังกล่าว
ผู้ประกอบการจากซิลิคอนวัลเลย์พบว่าตัวเองตกที่นั่งลำบากในเดือนกันยายน หลังจากเปรียบเทียบ AGI กับ "มนุษย์ธรรมดาๆ ที่คุณอาจจ้างมาเป็นเพื่อนร่วมงาน" เขาได้ต่อยอดความคิดเห็นที่เขาเคยแสดงไว้เมื่อปีที่แล้วว่า AI สามารถ "ทำทุกอย่างที่คุณทำได้กับเพื่อนร่วมงานที่ทำงานจากระยะไกล" รวมถึงการเรียนรู้วิธีการเป็นแพทย์และโปรแกรมเมอร์ที่ดี
แม้ว่าการเปรียบเทียบ AGI กับสติปัญญาของ "มนุษย์ทั่วไป" จะไม่ใช่เรื่องใหม่ แต่การใช้คำนี้ของ Altman ถูกมองว่าเป็น "สิ่งน่ารังเกียจ" โดยนักจริยธรรมด้าน AI และศาสตราจารย์ Henry Shevlin แห่งมหาวิทยาลัยเคมบริดจ์ เนื่องจากความกังวลเกี่ยวกับผลกระทบของ AI ต่อความมั่นคงในงานที่เพิ่มมากขึ้น
ความก้าวหน้าที่อาจเกิดขึ้นใน AGI ยังทำให้เกิดความกังวลสำหรับนักวิจัยรายอื่นๆ อีกด้วย เนื่องจากเทคโนโลยีดังกล่าวได้รับการพัฒนาเร็วกว่าที่มนุษย์จะเข้าใจถึงผลกระทบของมันได้อย่างสมบูรณ์
OpenAI เชื่อว่าผลลัพธ์เชิงบวกของ AGI ทำให้ “สนามทุ่นระเบิด” อันเสี่ยงนี้คุ้มค่าที่จะแสวงหา แต่ในขณะที่บริษัทยังคงเดินหน้าต่อไปในทิศทางนี้ หลายคนกังวลว่า Altman กำลังให้ความสำคัญกับความสำเร็จเชิงพาณิชย์มากกว่าผลประโยชน์ของผู้ใช้และสังคม
Phuong Anh (ที่มา: Tech.co, The Guardian)
แหล่งที่มา
การแสดงความคิดเห็น (0)