เอสจีจีพี
หลังจากที่ยุโรปเริ่มร่างและเปิดตัวกฎหมายว่าด้วยปัญญาประดิษฐ์ (AI) ฉบับแรก ของโลก ในไม่ช้านี้ ยักษ์ใหญ่ด้านการขุดข้อมูลทางอินเทอร์เน็ตชั้นนำทั้ง 4 แห่งของสหรัฐฯ เพิ่งเปิดตัวกลุ่มที่เรียกว่า Frontier Model Forum
เป้าหมายหลักของ Frontier Model Forum คือการส่งเสริม AI อย่างมีความรับผิดชอบ ภาพ: THINKWITHNICHE |
ฝ่ายต่างๆ เข้ามาใกล้ชิดกันมากขึ้น
กลุ่มนี้ซึ่งประกอบด้วย Anthropic, Google, Microsoft และ OpenAI เจ้าของ ChatGPT กล่าวว่าเป้าหมายหลักของ Frontier Model Forum คือการช่วยลดความเสี่ยงที่เกิดจากแพลตฟอร์ม AI และพัฒนามาตรฐานอุตสาหกรรม Frontier Model Forum จะสร้างฟอรัมใหม่ที่มีเป้าหมายหลักดังต่อไปนี้: ส่งเสริมการวิจัยด้านความปลอดภัยของ AI เพื่อสนับสนุนการพัฒนา ลดความเสี่ยง และสร้างมาตรฐานการประเมินและระดับความปลอดภัย ระบุแนวปฏิบัติที่ดีที่สุดสำหรับการพัฒนาและการนำแบบจำลองไปใช้ ช่วยให้สาธารณชนเข้าใจธรรมชาติ ความสามารถ ข้อจำกัด และผลกระทบของเทคโนโลยี และร่วมมือกับผู้กำหนดนโยบาย นักวิชาการ ภาคประชาสังคม และบริษัทต่างๆ เพื่อแบ่งปันความรู้เกี่ยวกับความเสี่ยงและความปลอดภัย
เดิมที บริษัทเทคโนโลยียักษ์ใหญ่มักต่อต้านกฎระเบียบที่เข้มงวดขึ้น แต่ในครั้งนี้ อุตสาหกรรมเทคโนโลยีได้เปลี่ยนจุดยืนเกี่ยวกับความกังวลที่เพิ่มขึ้นเกี่ยวกับความเสี่ยงที่ AI ก่อให้เกิดขึ้น บริษัทต่างๆ ที่เข้าร่วมโครงการ Frontier Model Forum ได้ให้คำมั่นว่าจะแบ่งปันแนวปฏิบัติที่ดีที่สุดระหว่างบริษัทต่างๆ และจะเผยแพร่ข้อมูลต่อสาธารณะต่อ รัฐบาล และภาคประชาสังคม
โดยเฉพาะอย่างยิ่ง ฟอรัม Frontier Model จะมุ่งเน้นไปที่แพลตฟอร์มการเรียนรู้ของเครื่องขนาดใหญ่แต่ยังอยู่ในช่วงเริ่มต้น ซึ่งจะยกระดับ AI ไปสู่อีกระดับของความซับซ้อน ซึ่งเป็นปัจจัยเสี่ยงที่อาจเกิดขึ้น นอกจากนี้ ฟอรัม Frontier Model จะสนับสนุนการพัฒนาแอปพลิเคชันที่ตอบโจทย์ความท้าทายทางสังคมที่สำคัญ เช่น การบรรเทาและปรับตัวต่อการเปลี่ยนแปลงสภาพภูมิอากาศ การตรวจหาและป้องกันมะเร็งในระยะเริ่มต้น และการรับมือกับภัยคุกคามทางไซเบอร์
มีพื้นที่สำหรับการทำลายล้างที่อาจเกิดขึ้น
การประกาศของ Frontier Model Forum โดยบริษัทสหรัฐฯ เกิดขึ้นไม่กี่วันหลังจากที่วุฒิสมาชิกสหรัฐฯ เมื่อวันที่ 25 กรกฎาคม ได้ออกมาเตือนถึงความเสี่ยงที่ AI จะถูกนำไปใช้ในการโจมตีทางชีวภาพในการพิจารณาคดีต่อหน้าคณะอนุกรรมการตุลาการของวุฒิสภาสหรัฐฯ เมื่อเร็วๆ นี้ บริษัทเทคโนโลยีรายใหญ่ 7 แห่ง รวมถึง OpenAI, Alphabet และ Meta ได้ตกลงโดยสมัครใจกับทำเนียบขาวในการพัฒนาระบบเพื่อระบุเนื้อหาทั้งหมด ตั้งแต่ข้อความ รูปภาพ เสียง ไปจนถึง วิดีโอ ที่สร้างโดย AI เพื่อให้มั่นใจถึงความโปร่งใสสำหรับผู้ใช้ เพื่อให้มั่นใจว่าเทคโนโลยีนี้มีความปลอดภัยมากขึ้น
ดาริโอ อโมเด ซีอีโอของ AI Anthropic กล่าวว่า แม้ว่า AI จะยังไม่สามารถสร้างอาวุธชีวภาพได้ แต่มันก็เป็นความเสี่ยง “ระยะกลาง” และอาจเป็นภัยคุกคามร้ายแรงต่อความมั่นคงแห่งชาติของสหรัฐฯ ในอีกสองถึงสามปีข้างหน้า เหตุผลก็คือ ผู้ที่ก่อเหตุโจมตีด้วยอาวุธชีวภาพขนาดใหญ่ไม่ได้จำกัดอยู่แค่ผู้ที่มีความรู้เฉพาะทางในเรื่องนี้อีกต่อไป
โลกกำลังเผชิญกับกระแสเนื้อหาที่ถูกสร้างขึ้นด้วยเทคโนโลยี AI เชิงสร้างสรรค์ (generative AI) ที่กำลังขยายตัวอย่างรวดเร็ว ตั้งแต่สหรัฐอเมริกา ยุโรป ไปจนถึงเอเชีย การควบคุมต่างๆ กำลังเข้มงวดขึ้นเรื่อยๆ CNN รายงานว่า ตั้งแต่เดือนกันยายนเป็นต้นไป วุฒิสภาสหรัฐฯ จะจัดเวิร์กช็อปเพิ่มเติมอีกเก้าครั้งเพื่อให้สมาชิกได้เรียนรู้ว่า AI ส่งผลต่อการจ้างงาน ความมั่นคงแห่งชาติ และทรัพย์สินทางปัญญาอย่างไร หากบรรลุข้อตกลงกันได้ สหภาพยุโรปจะออกกฎหมายว่าด้วยการจัดการ AI ฉบับแรกของโลกในปีหน้า ก่อนที่สหรัฐฯ จะลงนาม คาดว่าจะมีผลบังคับใช้ตั้งแต่ปี 2569
ประโยชน์ที่ AI นำมาสู่สังคมนั้นไม่อาจปฏิเสธได้ แต่ก็มีคำเตือนมากขึ้นเรื่อยๆ เกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีใหม่นี้ ในเดือนมิถุนายน อันโตนิโอ กูเตอร์เรส เลขาธิการสหประชาชาติ ได้สนับสนุนข้อเสนอจากผู้บริหารด้าน AI หลายท่านในการจัดตั้งหน่วยงานเฝ้าระวัง AI ระหว่างประเทศ เช่นเดียวกับสำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA)
ในงาน Frontier Model Forum แบรด สมิธ ประธานบริษัทไมโครซอฟท์ กล่าวว่าโครงการริเริ่มนี้เป็นก้าวสำคัญในการรวมบริษัทเทคโนโลยีเข้าด้วยกันเพื่อส่งเสริมการใช้ AI อย่างมีความรับผิดชอบเพื่อประโยชน์ของมวลมนุษยชาติ เช่นเดียวกัน แอนนา มาคันจู รองประธานฝ่ายกิจการระหว่างประเทศของ OpenAI กล่าวว่าเทคโนโลยี AI ขั้นสูงมีศักยภาพที่จะสร้างประโยชน์อย่างลึกซึ้งต่อสังคม ซึ่งจำเป็นต้องมีการกำกับดูแลและกำกับดูแล
แหล่งที่มา
การแสดงความคิดเห็น (0)