ส.ก.พ.
หลังจากที่ยุโรปเริ่มร่างและประกาศใช้กฎหมายว่าด้วยปัญญาประดิษฐ์ (AI) ฉบับแรกของโลก ในไม่ช้านี้ “ยักษ์ใหญ่” ด้านการขุดข้อมูลทางอินเทอร์เน็ต 4 อันดับแรกของสหรัฐฯ ก็เพิ่งเปิดตัวกลุ่มที่เรียกว่า Frontier Model Forum
เป้าหมายหลักของ Frontier Model Forum คือการส่งเสริม AI ที่มีความรับผิดชอบ ภาพ: THINKWITHNICHE |
ฝ่ายต่างๆมารวมตัวกัน
กลุ่มดังกล่าวซึ่งรวมถึง Anthropic, Google, Microsoft และ OpenAI ซึ่งเป็นเจ้าของ ChatGPT กล่าวว่าเป้าหมายหลักของ Frontier Model Forum คือการช่วยลดความเสี่ยงที่เกิดจากแพลตฟอร์ม AI และพัฒนามาตรฐานอุตสาหกรรม Frontier Model Forum จะสร้างฟอรัมใหม่ที่มีเป้าหมายหลักดังต่อไปนี้: ส่งเสริมการวิจัยด้านความปลอดภัยของ AI เพื่อสนับสนุนการพัฒนา ลดความเสี่ยง และทำให้การประเมินและระดับความปลอดภัยเป็นมาตรฐาน ระบุแนวทางปฏิบัติที่ดีที่สุดสำหรับการพัฒนาและการใช้งานโมเดล และช่วยให้สาธารณชนเข้าใจถึงลักษณะ ความสามารถ ข้อจำกัด และผลกระทบของเทคโนโลยี และร่วมมือกับผู้กำหนดนโยบาย นักวิชาการ ภาคประชาสังคม และบริษัทต่างๆ เพื่อแบ่งปันความรู้เกี่ยวกับความเสี่ยงและความปลอดภัย
ยักษ์ใหญ่ด้านเทคโนโลยีมักจะต่อต้านกฎระเบียบที่เข้มงวดยิ่งขึ้น แต่ในครั้งนี้ อุตสาหกรรมเทคโนโลยีได้เปลี่ยนจุดยืนเกี่ยวกับความเสี่ยงที่เกิดจาก AI เป็นอย่างมาก บริษัทต่างๆ ที่มีส่วนร่วมในโครงการ Frontier Model Forum ได้ให้คำมั่นว่าจะแบ่งปันแนวทางปฏิบัติที่ดีที่สุดระหว่างบริษัทต่างๆ และเผยแพร่ข้อมูลต่อสาธารณะให้กับ รัฐบาล และภาคประชาสังคม
โดยเฉพาะอย่างยิ่ง Frontier Model Forum จะมุ่งเน้นไปที่แพลตฟอร์มการเรียนรู้ของเครื่องจักรขนาดใหญ่แต่ยังอยู่ในช่วงเริ่มต้น ซึ่งจะนำ AI ไปสู่ระดับความซับซ้อนใหม่ ซึ่งเป็นปัจจัยเสี่ยงที่อาจเกิดขึ้นได้ นอกจากนี้ Frontier Model Forum จะสนับสนุนการพัฒนาแอปพลิเคชันที่แก้ไขปัญหาสังคมที่สำคัญ เช่น การบรรเทาและปรับตัวต่อการเปลี่ยนแปลงสภาพภูมิอากาศ การตรวจจับและป้องกันมะเร็งในระยะเริ่มต้น และการป้องกันภัยคุกคามทางไซเบอร์
มีห้องสำหรับการทำลายล้างที่อาจเกิดขึ้น
การประกาศของ Frontier Model Forum โดยบริษัทต่างๆ ของสหรัฐฯ เกิดขึ้นไม่กี่วันหลังจากที่วุฒิสมาชิกสหรัฐฯ เมื่อวันที่ 25 กรกฎาคมได้เตือนเกี่ยวกับความเสี่ยงที่ AI จะถูกใช้เพื่อโจมตีทางชีวภาพในการพิจารณาคดีต่อหน้าคณะอนุกรรมการของคณะกรรมการตุลาการของวุฒิสภาสหรัฐฯ เมื่อไม่นานนี้ บริษัทเทคโนโลยีหลัก 7 แห่ง รวมถึง OpenAI, Alphabet และ Meta ได้ตกลงโดยสมัครใจกับทำเนียบขาวในการพัฒนาระบบสำหรับการติดป้ายกำกับเนื้อหาทั้งหมดตั้งแต่ข้อความ รูปภาพ เสียง ไปจนถึง วิดีโอ ที่สร้างโดย AI เพื่อให้ผู้ใช้ได้รับข้อมูลที่มีความโปร่งใส เพื่อให้แน่ใจว่าเทคโนโลยีนี้จะปลอดภัยยิ่งขึ้น
Dario Amodei ซีอีโอของ AI Anthropic กล่าวว่าแม้ว่า AI จะยังไม่สามารถสร้างอาวุธชีวภาพได้ แต่ก็ถือเป็นความเสี่ยงในระยะกลางที่อาจก่อให้เกิดภัยคุกคามร้ายแรงต่อความมั่นคงของชาติสหรัฐฯ ในอีก 2-3 ปีข้างหน้า เนื่องจากผู้ที่ทำการโจมตีทางชีวภาพในวงกว้างไม่ได้จำกัดอยู่แค่ผู้ที่มีความรู้เฉพาะด้านอีกต่อไป
โลกกำลังเผชิญกับเนื้อหาจำนวนมากที่สร้างขึ้นด้วยเทคโนโลยี AI เชิงสร้างสรรค์ ตั้งแต่สหรัฐอเมริกาไปจนถึงยุโรปและเอเชีย กฎระเบียบต่างๆ กำลังเข้มงวดขึ้นเรื่อยๆ ตามรายงานของ CNN ระบุว่าตั้งแต่เดือนกันยายนเป็นต้นไป วุฒิสภาสหรัฐฯ จะจัดเวิร์กช็อปเพิ่มเติมอีก 9 ครั้งเพื่อให้สมาชิกได้เรียนรู้ว่า AI ส่งผลต่อการจ้างงาน ความมั่นคงของชาติ และทรัพย์สินทางปัญญาอย่างไร หากบรรลุข้อตกลงกันได้ สหภาพยุโรปจะออกกฎหมายเกี่ยวกับการจัดการ AI ฉบับแรกของโลกในปีหน้า ก่อนที่สหรัฐฯ จะออกกฎหมายดังกล่าว ซึ่งคาดว่าจะมีผลบังคับใช้ในปี 2026
ประโยชน์ที่ AI นำมาสู่สังคมนั้นไม่อาจปฏิเสธได้ แต่ก็มีคำเตือนมากขึ้นเรื่อยๆ เกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีใหม่นี้ ในเดือนมิถุนายน อันโตนิโอ กูเตอร์เรส เลขาธิการสหประชาชาติสนับสนุนข้อเสนอจากผู้บริหารด้าน AI หลายคนในการจัดตั้งหน่วยงานเฝ้าระวัง AI ระหว่างประเทศ ซึ่งคล้ายกับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA)
ในงาน Frontier Model Forum นาย Brad Smith ประธานบริษัท Microsoft กล่าวว่าโครงการนี้ถือเป็นก้าวสำคัญในการนำบริษัทด้านเทคโนโลยีมารวมกันเพื่อส่งเสริมการใช้ AI อย่างมีความรับผิดชอบเพื่อประโยชน์ของมนุษยชาติทั้งหมด ในทำนองเดียวกัน นาง Anna Makanju รองประธานฝ่ายกิจการระดับโลกของ OpenAI กล่าวว่าเทคโนโลยี AI ขั้นสูงมีศักยภาพที่จะนำมาซึ่งประโยชน์อันล้ำลึกให้กับสังคม ซึ่งต้องมีการกำกับดูแลและกำกับดูแล
แหล่งที่มา
การแสดงความคิดเห็น (0)