ในเดือนพฤษภาคม ซีอีโออัลท์แมนยื่นคำร้องต่อวุฒิสภาสหรัฐฯ ในกรุงวอชิงตัน ดี.ซี. โดยมีคำเรียกร้องอย่างเร่งด่วนต่อผู้ร่างกฎหมายว่า นอกเหนือจากการใช้ประโยชน์จากความเหนือกว่าของ AI แล้ว เรายังต้องสร้างกฎระเบียบที่เข้มงวดในเร็วๆ นี้ด้วย เพื่อลดความเสี่ยงที่ AI จะมีอำนาจเหนือมนุษยชาติให้เหลือน้อยที่สุด
อินเทอร์เฟซ ChatGPT บนเว็บไซต์ ภาพ: Shutterstock
“ความเสี่ยงร้ายแรงต่อสังคมและมนุษยชาติ”
เมื่อเปิดตัว ChatGPT ของ OpenAI เมื่อปลายปีที่แล้ว Altman วัย 38 ปี ได้กลายเป็นผู้สร้างเครื่องมือ AI สายพันธุ์ใหม่ที่สามารถสร้างรูปภาพและข้อความตามความต้องการของผู้ใช้ ซึ่งเป็นเทคโนโลยีที่เรียกว่า generative AI
ไม่นานหลังจากเปิดตัว ChatGPT ก็กลายเป็นชื่อที่คุ้นเคย ผู้บริหารใช้มันในการร่างอีเมล์ ผู้คนสร้างเว็บไซต์โดยที่ไม่มีประสบการณ์การเขียนโค้ดมาก่อน และมันก็ผ่านการสอบจากโรงเรียนกฎหมายและธุรกิจมาแล้ว มีศักยภาพที่จะปฏิวัติอุตสาหกรรมเกือบทุกประเภท รวมถึงการศึกษา การเงิน เกษตรกรรม สื่อ วารสารศาสตร์ และสุขภาพ ตั้งแต่การผ่าตัดไปจนถึงการพัฒนาวัคซีนทางการแพทย์
แต่เครื่องมือเดียวกันเหล่านี้ได้สร้างความกังวลเกี่ยวกับทุกสิ่งทุกอย่างตั้งแต่การโกงในโรงเรียนและการสูญเสียงาน - แม้กระทั่งภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติ
การเพิ่มขึ้นของ AI ทำให้ บรรดานักเศรษฐศาสตร์ ออกมาเตือนเกี่ยวกับตลาดแรงงาน ตามการประมาณการของ Goldman Sachs คาดว่าในที่สุดอาจมีการใช้ AI เข้ามาควบคุมงานเต็มเวลาในบางรูปแบบได้มากถึง 300 ล้านตำแหน่งทั่วโลก รายงานของเวิลด์อีโคโนมิกฟอรัมเมื่อเดือนเมษายนระบุว่า งานประมาณ 14 ล้านตำแหน่งอาจหายไปภายในอีก 5 ปีข้างหน้า
นอกจากนี้ ในคำให้การต่อ รัฐสภา สหรัฐฯ อัลท์แมนกล่าวว่าศักยภาพของ AI ที่จะนำมาใช้เพื่อบิดเบือนผู้ลงคะแนนเสียงและกำหนดเป้าหมายที่ข้อมูลเท็จ คือหนึ่งใน "พื้นที่ที่ฉันกังวลมากที่สุด"
สองสัปดาห์หลังการพิจารณาคดี อัลท์แมนได้ร่วมลงนามในจดหมายร่วมกับนักวิทยาศาสตร์ด้าน AI นักวิจัย และผู้นำทางธุรกิจชั้นนำหลายร้อยคน โดยระบุว่า “การลดความเสี่ยงในการสูญพันธุ์จาก AI ต้องเป็นสิ่งสำคัญระดับโลก ควบคู่ไปกับความเสี่ยงในระดับสังคมอื่นๆ เช่น โรคระบาดและสงครามนิวเคลียร์”
คำเตือนดังกล่าวได้รับการเผยแพร่อย่างกว้างขวางในหนังสือพิมพ์และสื่อมวลชน และผู้คนจำนวนมากขึ้นเรื่อยๆ กำลังโต้แย้งว่าสถานการณ์เลวร้ายเช่นนี้ควรได้รับการพิจารณาอย่างจริงจังมากขึ้น
แต่มีความขัดแย้งครั้งใหญ่ในซิลิคอนวัลเลย์: ซีอีโอของบริษัทเทคโนโลยียักษ์ใหญ่บางแห่งบอกกับสาธารณชนว่า AI มีศักยภาพที่จะทำให้มนุษย์สูญพันธุ์ได้ แต่อย่างไรก็ตาม พวกเขากลับรีบเร่งลงทุนและปรับใช้เทคโนโลยีนี้กับผู้ใช้หลายพันล้านคน
อัลท์แมนได้แสดงให้เห็นมานานแล้วว่าเขากังวลเกี่ยวกับความเสี่ยงที่เกิดจาก AI และเขาได้ให้คำมั่นที่จะก้าวไปข้างหน้าอย่างรับผิดชอบ เขาเป็นหนึ่งในกลุ่มซีอีโอด้านเทคโนโลยีที่เข้าพบผู้นำทำเนียบขาว รวมถึงประธานาธิบดีโจ ไบเดน และรองประธานาธิบดีกมลา แฮร์ริส เพื่อเน้นย้ำถึงความสำคัญของการพัฒนา AI ที่มีจริยธรรมและมีความรับผิดชอบ
อย่างไรก็ตาม นั่นไม่เพียงพอ คนอื่นๆ ต้องการให้ Altman และ OpenAI ดำเนินการอย่างระมัดระวังมากขึ้น แม้แต่ Elon Musk ที่ช่วยก่อตั้ง OpenAI ก่อนจะออกจากกลุ่ม และผู้นำด้านเทคโนโลยี ศาสตราจารย์ และนักวิจัยอีกหลายสิบคน ยังได้เรียกร้องให้ห้องปฏิบัติการปัญญาประดิษฐ์ เช่น OpenAI หยุดฝึกอบรมระบบ AI ที่ทรงพลังที่สุดของตนเป็นเวลาอย่างน้อย 6 เดือน โดยอ้างถึง “ความเสี่ยงอย่างลึกซึ้งต่อสังคมและมนุษยชาติ”
อัลท์แมนกล่าวว่าเขาเห็นด้วยกับบางส่วนของจดหมาย รวมทั้งเรื่อง “ต้องเพิ่มระดับความปลอดภัย” แต่กล่าวว่าการหยุดชะงักจะไม่ใช่ “วิธีที่ดีที่สุด” ในการแก้ไขปัญหาดังกล่าว
OpenAI ยังคงเร่งฝีเท้าต่อไป ล่าสุดมีรายงานว่า OpenAI และ Jony Ive นักออกแบบ iPhone อยู่ระหว่างการเจรจาเพื่อระดมทุน 1 พันล้านดอลลาร์จาก SoftBank ซึ่งเป็นกลุ่มบริษัทขนาดใหญ่ของญี่ปุ่น เพื่อพัฒนาอุปกรณ์ AI เพื่อมาแทนที่สมาร์ทโฟน
แซมไว้ใจได้ไหม?
เมื่ออัลท์แมนเริ่มต้น OpenAI เขาบอกกับ CNN ในปี 2015 ว่าเขาต้องการกำหนดเส้นทางของ AI แทนที่จะกังวลเกี่ยวกับอันตรายที่อาจเกิดขึ้นและไม่ทำอะไรเลย “ผมนอนหลับได้สบายขึ้นเมื่อรู้ว่าตอนนี้ผมสามารถมีอิทธิพลบางอย่างได้” เขากล่าว
อย่างไรก็ตาม อัลท์แมนกล่าวว่าเขามีความกังวลเกี่ยวกับเทคโนโลยี “ผมเตรียมพร้อมสำหรับการเอาชีวิตรอดแล้ว” เขากล่าวในบทความของนิตยสาร The New Yorker เมื่อปี 2016 โดยระบุถึงสถานการณ์เลวร้ายที่อาจเกิดขึ้นได้หลายประการ รวมทั้ง “AI โจมตีเรา”
แซม อัลท์แมน ซีอีโอของ OpenAI กล่าวต่อหน้าวุฒิสภาสหรัฐฯ เมื่อวันที่ 16 พฤษภาคม ที่กรุงวอชิงตัน สหรัฐฯ ภาพ: AP
“แต่ฉันมีปืน ทองคำ ยาปฏิชีวนะ แบตเตอรี่ น้ำ หน้ากากป้องกันแก๊ส… และพื้นที่ขนาดใหญ่ในบิ๊กเซอร์ที่ฉันสามารถบินไปได้” เขากล่าวโดยนัยว่าเขาเองยังสามารถเอาชีวิตรอดได้หากเกิดภัยพิบัติขึ้น นั่นเป็นคำพูดที่เห็นแก่ตัวอย่างชัดเจน
ในความพยายามที่กว้างขวางที่สุดเท่าที่เคยมีมา ประธานาธิบดีไบเดนได้ประกาศคำสั่งฝ่ายบริหารเมื่อต้นสัปดาห์นี้ ซึ่งกำหนดให้ผู้พัฒนาระบบ AI ที่มีประสิทธิภาพต้องแบ่งปันผลการทดสอบความปลอดภัยกับหน่วยงานของรัฐบาลกลาง ก่อนที่จะเผยแพร่สู่สาธารณะ เพื่อดูว่าระบบดังกล่าวก่อให้เกิดความเสี่ยงต่อความมั่นคงของชาติ เศรษฐกิจ หรือสุขภาพหรือไม่
หลังการพิจารณาของวุฒิสภาสหรัฐฯ เอมิลี่ เบนเดอร์ ศาสตราจารย์มหาวิทยาลัยวอชิงตันและผู้อำนวยการห้องปฏิบัติการภาษาศาสตร์เชิงคำนวณ แสดงความกังวลเกี่ยวกับอนาคตของ AI แม้ว่าจะมีการควบคุมอย่างเข้มงวดก็ตาม “ถ้าพวกเขาเชื่อจริงๆ ว่าสิ่งนี้อาจนำไปสู่การสูญพันธุ์ของมนุษย์ ทำไมไม่หยุดล่ะ?” เธอประกาศ
การกำหนดนโยบายที่ดีต้องอาศัยข้อมูลจากมุมมองและความสนใจหลายด้าน ไม่ใช่เพียงมุมมองเดียวหรือเพียงไม่กี่มุมมอง และต้องได้รับการกำหนดโดยผลประโยชน์สาธารณะ มาร์กาเร็ต โอมารา นักประวัติศาสตร์ด้านเทคโนโลยีและศาสตราจารย์มหาวิทยาลัยวอชิงตันกล่าว “ความท้าทายของ AI ก็คือ มีผู้คนและบริษัทเพียงไม่กี่แห่งที่เข้าใจว่ามันทำงานอย่างไร และการใช้งานมันมีความหมายอย่างไร เหมือนกับระเบิดปรมาณู” โอมารา กล่าว
ดังนั้น จึงเป็นเรื่องเสี่ยงสำหรับโลกที่จะหวังให้อัลท์แมนทำสิ่งที่เป็นผลประโยชน์สูงสุดของมนุษยชาติด้วยเทคโนโลยีที่เขาเองก็ยอมรับว่าอาจเป็นอาวุธทำลายล้างสูง และได้เตรียมที่พักพิงไว้ในกรณีที่เกิดภัยพิบัติ นอกจากนี้ เขาก็เป็นเพียงมนุษย์คนหนึ่ง ไม่ใช่ซุปเปอร์ฮีโร่หรือผู้ช่วยเหลือ!
ฮวงไห่ (ตามรายงานของ CNN, FT, Reuters)
แหล่งที่มา
การแสดงความคิดเห็น (0)