ประสบการณ์จากประเทศอื่นแสดงให้เห็นว่าการจะควบคุมปัญหาที่เกี่ยวข้องกับ AI ได้นั้น ต้องมีกฎหมายควบคุมเพียงอย่างเดียวไม่เพียงพอ แต่ต้องใช้เครื่องมือทางนโยบายอื่นๆ ที่เรียกว่า "กฎหมายอ่อน" เช่น หลักจริยธรรม จรรยาบรรณ และแนวปฏิบัติทางเทคนิคของอุตสาหกรรมด้วย
มาตรการควบคุมควรเหมาะสมกับระดับความเสี่ยงเพื่อหลีกเลี่ยงการควบคุมมากเกินไป สำหรับระดับความเสี่ยงสูงสุดจำเป็นต้องมีกฎหมายที่บังคับใช้และเข้มงวด เมื่อต้องเผชิญความเสี่ยงในระดับที่สูงขึ้น ข้อกำหนดทางกฎหมายควรจะ “ผ่อนปรน” มากขึ้น สำหรับความเสี่ยงต่ำ เพียงใช้แนวปฏิบัติ มาตรฐานทางเทคนิค และจรรยาบรรณการสมัครใจ การควบคุมความเสี่ยงของ AI ควรขึ้นอยู่กับขอบเขตและระดับอำนาจที่บุคคลนั้นๆ มีอยู่ หน่วยงานที่มีอำนาจมากกว่า เช่น รัฐบาล หรือบริษัทเทคโนโลยีขนาดใหญ่ จะต้องอยู่ภายใต้การควบคุมที่เข้มงวดยิ่งขึ้น
โอกาสและความเสี่ยงของ AI ต่อสังคมและมนุษย์สามารถปรับและตอบสนองได้ในทุกขั้นตอนของวงจรชีวิตระบบ AI รวมถึงการวิจัย การพัฒนา การปรับใช้ และการประยุกต์ใช้ ในวงจรชีวิตของระบบ AI จำเป็นต้องกำหนดความรับผิดชอบของแต่ละวิชาให้ชัดเจนและเฉพาะเจาะจง ได้แก่ นักพัฒนา AI ผู้ใช้งาน/ผู้ดำเนินการแอปพลิเคชัน และผู้ใช้ปลายทาง
ในการสร้างกรอบกฎหมายทั่วไปเกี่ยวกับ AI จำเป็นต้องมีเนื้อหาหลักต่อไปนี้ ประการแรก ให้มีแนวคิดที่ชัดเจนเกี่ยวกับ AI ระบบ AI และโมเดล AI เป็นจุดเริ่มต้นสำหรับเนื้อหาเชิงกำกับดูแลอื่นๆ ในเทคโนโลยีนี้ ประการที่สอง ระบุหลักการพื้นฐานในการกำกับดูแล AI ได้แก่ การนำผู้คน ค่านิยมของมนุษย์ สิทธิมนุษยชนมาเป็นพื้นฐานสำหรับวงจรชีวิตทั้งหมดของระบบ AI ความโปร่งใส ความรับผิดชอบ และความน่าเชื่อถือ สาม ระบุระดับความเสี่ยงและมาตรการที่เหมาะสมกับระดับความเสี่ยง ประการที่สี่ ระบุความรับผิดชอบที่เฉพาะเจาะจงของหน่วยงานที่เกี่ยวข้องในวงจรชีวิตของระบบ AI
โดยเฉพาะอย่างยิ่ง ระบบ AI จะต้องถูกจำกัดในกรณีที่ก่อให้เกิดภัยคุกคามต่อชีวิตหรือความปลอดภัยของบุคคลหรือกลุ่มบุคคล ระบบ AI ที่ทำให้เกิดการเลือกปฏิบัติ เช่น อายุ เพศ ศาสนา หรือคะแนนทางสังคมที่ส่งผลให้ได้รับการปฏิบัติที่ไม่เหมาะสม ควรได้รับการห้าม กรอบกฎหมายทั่วไปควรต้องมีความโปร่งใสของอัลกอริธึมในกระบวนการตัดสินใจด้าน AI เพื่อป้องกันอคติและผลลัพธ์ที่เลือกปฏิบัติ ตัวอย่างอัลกอริทึมการสรรหาบุคลากร
นอกเหนือจากกรอบกฎหมายทั่วไปแล้ว ยังจำเป็นต้องออกเอกสารทางกฎหมาย ซึ่งอาจเป็นคำสั่งหรือหนังสือเวียน ที่ให้ข้อกำหนดเฉพาะเจาะจงมากขึ้นเกี่ยวกับประเด็นทางเทคนิคและเฉพาะทางที่เกี่ยวข้องกับ AI เช่น การปรับอัลกอริธึมเพื่อให้มั่นใจถึงความโปร่งใส ยุติธรรม และหลีกเลี่ยงการเลือกปฏิบัติ ควบคุมการใช้เทคโนโลยีการจดจำใบหน้า การใช้ AI ในบางพื้นที่อาจมีความเสี่ยงมากมาย เช่น การสรรหา การใช้ การประเมินแรงงาน...
เนื่องจาก AI มีลักษณะครอบคลุมหลายด้าน จึงควรหลีกเลี่ยงแนวทางการกำกับดูแล AI แบบแยกส่วน ในการประสานงานกับหน่วยงานต่างๆ อาจพิจารณาจัดตั้งกลไกสหวิทยาการที่เป็นตัวแทน มีประสิทธิผล และสร้างสมดุลระหว่างมุมมองและมุมมองที่แตกต่างกัน เพื่อให้นโยบายต่างๆ สอดคล้องกับผลประโยชน์ที่กว้างขวางที่แตกต่างกัน ผู้มีส่วนได้ส่วนเสียในสังคมที่มีความหลากหลายจำเป็นต้องมีส่วนร่วมตั้งแต่เริ่มต้นวงจรชีวิตระบบ AI ไม่เพียงแต่ผู้เชี่ยวชาญด้านเทคนิค ธุรกิจ แต่ยังรวมถึงผู้เชี่ยวชาญด้านกฎหมาย ผู้เชี่ยวชาญด้านสิทธิมนุษยชน ผู้แทนจากชุมชน องค์กรทางสังคม และกลุ่มอื่นๆ ที่อาจได้รับผลกระทบจากระบบ AI ด้วย
การประกาศนโยบายกำกับดูแล AI จำเป็นต้องมุ่งเน้นไปที่ความยุติธรรมทางสังคม การรับรองสิทธิและผลประโยชน์ และเกี่ยวข้องกับกลุ่มเปราะบาง เช่น คนพิการ ชนกลุ่มน้อย คนจน สตรี และเด็ก กลุ่มเปราะบางเหล่านี้จำเป็นต้องมีมาตรการคุ้มครองเป็นพิเศษ ระบบ AI ที่ใช้ประโยชน์จากช่องโหว่ซึ่งอาจก่อให้เกิดอันตรายต่อจิตใจหรือพฤติกรรมจำเป็นต้องมีการควบคุมอย่างเข้มงวด ซึ่งรวมถึงการทำให้แน่ใจว่าเทคโนโลยี AI จะไม่จัดการหรือบีบบังคับบุคคลที่เปราะบางให้กระทำการที่ขัดต่อผลประโยชน์ของพวกเขา
ที่มา: https://daibieunhandan.vn/kiem-soat-rui-ro-cua-tri-tue-nhan-tao-mot-cach-cong-bang-post411511.html
การแสดงความคิดเห็น (0)