![]() |
ยูเนสโกเรียกร้องให้มีกฎระเบียบที่เข้มงวดเพื่อควบคุมการใช้ปัญญาประดิษฐ์ (AI) ในห้องเรียน (ภาพ: Linkedin) |
ในคำแนะนำล่าสุดที่ส่งไปยัง รัฐบาลต่างๆ UNESCO เน้นย้ำว่าหน่วยงานของแต่ละประเทศยังไม่พร้อมที่จะแก้ไขปัญหาที่เกี่ยวข้องกับการนำ โปรแกรม AI เชิงสร้างสรรค์ มาใช้ในโรงเรียน
หน่วยงานดังกล่าวระบุว่าการใช้โปรแกรม AI แทนครูอาจส่งผลต่ออารมณ์ของเด็กและทำให้พวกเขาเสี่ยงต่อการถูกหลอกล่อ แนวทางของ UNESCO ระบุว่าเครื่องมือ AI มีศักยภาพที่จะช่วยเหลือเด็ก ๆ ในฐานะผู้ช่วยวิจัย แต่เครื่องมือเหล่านี้จะปลอดภัยและมีประสิทธิภาพได้ก็ต่อเมื่อรัฐบาลควบคุมการใช้งาน และครู นักเรียน และนักวิจัยมีส่วนร่วมในการออกแบบเครื่องมือเหล่านี้
ในความเป็นจริง AI กำลังเปลี่ยนแปลงโลก และอำนวยความสะดวกให้กับชีวิตประจำวัน งานของมนุษย์ในทุกสาขาลดลงอย่างมากเนื่องมาจากการใช้งาน AI
อย่างไรก็ตาม มีคำเตือนมากขึ้นเกี่ยวกับความเสี่ยงที่เกิดจาก AI เทคโนโลยีนี้กำลังก่อให้เกิดการต่อสู้ครั้งใหม่ที่ซับซ้อนและดุเดือดระหว่างกองกำลังรักษาความปลอดภัยทางไซเบอร์และอาชญากรทางไซเบอร์ เด็กๆ เป็นผู้ได้รับประโยชน์จากโอกาสที่ AI มอบให้ แต่ยังเป็นกลุ่มที่เสี่ยงต่ออันตรายจากเทคโนโลยีล้ำสมัยนี้มากที่สุดอีกด้วย
ขณะที่ AI เข้ามามีบทบาทแพร่หลายมากขึ้นทั่วโลก โดยการลงทุนมีแนวโน้มที่จะเพิ่มขึ้นอย่างมากในปี 2023 ผู้กำหนดนโยบายทั่วโลกต่างพิจารณาอย่างเร่งด่วนว่าจะบรรเทาความเสี่ยงที่เทคโนโลยีใหม่นี้ก่อให้เกิดต่อความมั่นคงของชาติได้อย่างไร
ในเดือนพฤศจิกายน รัฐบาลสหราชอาณาจักรจะจัดการประชุมสุดยอดระดับโลกเกี่ยวกับความปลอดภัยของ AI โดยมุ่งเน้นไปที่วิธีป้องกันไม่ให้ AI ถูกใช้ในการเผยแพร่ข้อมูลที่ผิดพลาด ข่าวปลอมในช่วงการเลือกตั้ง และการใช้เทคโนโลยีนี้ในสงคราม
เมื่อเดือนพฤษภาคมที่ผ่านมา ผู้นำกลุ่มประเทศอุตสาหกรรมชั้นนำทั้ง 7 ประเทศ (G7) เรียกร้องให้มีมาตรฐานระดับโลกเพื่อพัฒนาเทคโนโลยี AI อย่างปลอดภัยและเชื่อถือได้
การพัฒนาอย่างรวดเร็วของ AI ได้สร้างปัญหาที่ยากสำหรับหน่วยงานต่างๆ ในหลายประเทศ นั่นคือจะหาสมดุลระหว่างการส่งเสริมนวัตกรรมและความคิดสร้างสรรค์กับการควบคุมความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีนี้ได้อย่างไร แม้ว่าผลิตภัณฑ์ AI จะมีประโยชน์ แต่บริษัทเทคโนโลยีหลายแห่งยังคงเตือนถึงระดับอันตรายของเทคโนโลยีนี้หากไม่ได้รับการดูแลอย่างใกล้ชิด
แบรด สมิธ ประธานบริษัทไมโครซอฟต์ กล่าวเมื่อไม่นานนี้ว่า AI มีศักยภาพที่จะเป็นเครื่องมือที่มีประโยชน์ แต่ก็มีความเสี่ยงที่จะกลายเป็นอาวุธต่อต้านมนุษยชาติหาก AI หลุดจากการควบคุมของมนุษย์ แบรด สมิธ ยืนยันว่าบริษัทเทคโนโลยีจำเป็นต้องได้รับการสนับสนุนให้ทำสิ่งที่ถูกต้อง รวมถึงการสร้างกฎระเบียบและนโยบายใหม่ๆ เพื่อให้แน่ใจว่าจะปลอดภัยในทุกสถานการณ์
แซม อัลท์แมน ซีอีโอของ OpenAI ยังได้เตือนถึงอันตรายที่อาจเกิดขึ้นจาก AI และเน้นย้ำถึงความจำเป็นในการลดอันตรายดังกล่าว บริษัทเทคโนโลยีชั้นนำ 4 แห่ง ได้แก่ Anthropic, Google, Microsoft และ OpenAI ได้จัดตั้งกลุ่มใหม่ที่เรียกว่า Frontier Model Forum เพื่อสร้างมาตรฐานความปลอดภัย โดยมีเป้าหมายหลัก เช่น การส่งเสริมการวิจัย AI ที่ปลอดภัยเพื่อสนับสนุนการพัฒนา ลดความเสี่ยง ช่วยให้สาธารณชนเข้าใจถึงธรรมชาติ ความสามารถ ข้อจำกัด และผลกระทบของเทคโนโลยี ร่วมมือกับผู้กำหนดนโยบายและนักวิชาการเพื่อแบ่งปันความรู้เกี่ยวกับความเสี่ยงและความปลอดภัย...
การใช้ AI เป็นแนวโน้มที่ไม่อาจย้อนกลับได้ในโลก การสร้างกลยุทธ์การพัฒนาเพื่อให้ AI ตอบสนองชีวิตมนุษย์ได้อย่างแท้จริงถือเป็นขั้นตอนที่จำเป็นเพื่อเตรียมความพร้อมให้คนรุ่นต่อไปสามารถใช้ชีวิตอย่างปลอดภัยด้วยปัญญาประดิษฐ์
แหล่งที่มา
การแสดงความคิดเห็น (0)