ภาพประกอบ ที่มา: VNA |
ด้วยเหตุนี้ จึงขอสนับสนุนให้หน่วยงาน ด้านวิทยาศาสตร์ และเทคโนโลยี องค์กร ธุรกิจ และบุคคลที่มีส่วนร่วมในการวิจัย การออกแบบ การพัฒนา และการจัดหาระบบ AI ปฏิบัติตามเนื้อหาของเอกสารแนะนำ
หลักการเก้าประการสำหรับการวิจัยและพัฒนา AI ที่มีความรับผิดชอบ ได้แก่ การทำงานร่วมกัน นวัตกรรม ความโปร่งใส การควบคุม ความปลอดภัย ความมั่นคง ความเป็นส่วนตัว การเคารพสิทธิมนุษยชนและศักดิ์ศรี การสนับสนุนผู้ใช้ ความรับผิดชอบ
แต่ละหลักการมีแนวทางปฏิบัติของตนเอง ตัวอย่างเช่น เพื่อความโปร่งใส นักพัฒนาจำเป็นต้องให้ความสำคัญกับการควบคุมอินพุต/เอาต์พุตของระบบ AI และความสามารถในการอธิบายการวิเคราะห์ที่เกี่ยวข้อง ดังนั้น ระบบ AI ที่สอดคล้องกับหลักการนี้จึงมักเป็นระบบที่สามารถส่งผลกระทบต่อชีวิต ร่างกาย ความเป็นส่วนตัว หรือทรัพย์สินของผู้ใช้หรือบุคคลที่สามที่เกี่ยวข้อง
นักพัฒนาจึงต้องใส่ใจกับความสามารถในการระบุอินพุตและเอาต์พุตของระบบ AI ได้อย่างชัดเจน ตลอดจนความสามารถในการอธิบายที่เกี่ยวข้องโดยอิงตามลักษณะเฉพาะของเทคโนโลยีที่นำมาใช้และวิธีการใช้งานเพื่อให้มั่นใจถึงความไว้วางใจจากสังคม รวมถึงผู้ใช้งาน
หรือในส่วนของหลักการเคารพสิทธิมนุษยชนและศักดิ์ศรีความเป็นมนุษย์นั้น เมื่อพัฒนาระบบ AI ที่เกี่ยวข้องกับมนุษย์ นักพัฒนาจะต้องให้ความสำคัญเป็นพิเศษกับการเคารพสิทธิมนุษยชนและศักดิ์ศรีความเป็นมนุษย์ของบุคคลที่เกี่ยวข้อง
ในขอบเขตที่เป็นไปได้ ขึ้นอยู่กับลักษณะของเทคโนโลยีที่นำมาใช้ นักพัฒนาควรใช้มาตรการเพื่อให้แน่ใจว่าจะไม่ก่อให้เกิดการเลือกปฏิบัติหรือความไม่เป็นธรรมอันเนื่องมาจากอคติ (ความลำเอียง) ในข้อมูลเมื่อฝึกอบรมระบบ AI
นักพัฒนาจำเป็นต้องใช้มาตรการป้องกันเพื่อให้แน่ใจว่าระบบ AI จะไม่ละเมิดค่านิยมของมนุษย์และจริยธรรมทางสังคมตามหลักการพื้นฐานของเวียดนาม (เช่น ค่านิยมต่างๆ รวมถึงความรักชาติ ความสามัคคี การพึ่งพาตนเอง ความภักดี ความซื่อสัตย์ ความรับผิดชอบ วินัย ความคิดสร้างสรรค์ ฯลฯ)
เป็นที่ทราบกันดีว่าผลการประเมินและการประกาศในรายงาน "ดัชนีความพร้อมด้านปัญญาประดิษฐ์ของรัฐบาล" ซึ่งจัดทำโดย Oxford Insight ระบุว่า ในปี 2566 เวียดนามไต่ขึ้นมาอยู่อันดับที่ 5 ในอาเซียน แซงหน้าฟิลิปปินส์ (รองจากสิงคโปร์ มาเลเซีย ไทย และอินโดนีเซีย) โดยในปี 2566 เวียดนามมีคะแนนเฉลี่ยอยู่ที่ 54.48 คะแนน (ในปี 2565 ได้ 53.96 คะแนน และในปี 2564 ได้ 51.82 คะแนน) ซึ่งสูงกว่าค่าเฉลี่ย ของโลก โดยอยู่อันดับที่ 59 จากกว่า 193 ประเทศและเขตการปกครอง (ในปี 2565 ได้ 55 คะแนน จาก 181 ประเทศและเขตการปกครอง)
กระทรวงวิทยาศาสตร์และเทคโนโลยี ระบุว่า ในบริบทปัจจุบัน จำเป็นต้องมีการวิจัยและดำเนินมาตรการเพื่อลดความเสี่ยงในกระบวนการพัฒนาและการใช้ AI และเพื่อสร้างสมดุลระหว่างปัจจัยทางเศรษฐกิจ จริยธรรม และกฎหมายที่เกี่ยวข้อง ดังนั้น หน่วยงานเฉพาะทางจึงจำเป็นต้องวิจัยและพัฒนามาตรฐานและแนวทางปฏิบัติ แม้ว่ากฎระเบียบเหล่านั้นจะมีลักษณะผ่อนปรนและไม่มีผลผูกพันก็ตาม
นอกจากนี้ การแบ่งปันและแลกเปลี่ยนข้อมูลเกี่ยวกับกระบวนการและแนวทางปฏิบัติที่ดีระหว่างผู้มีส่วนได้ส่วนเสีย (เช่น นักพัฒนา ผู้ให้บริการ ผู้ใช้) จะช่วยส่งเสริมฉันทามติในการเพิ่มประโยชน์จากระบบ AI และควบคุมความเสี่ยงอีกด้วย
กระทรวงวิทยาศาสตร์และเทคโนโลยีได้ศึกษาเชิงรุกเกี่ยวกับประสบการณ์ของประเทศอื่นๆ และคำแนะนำจากองค์กรต่างๆ เช่น UNESCO, UN, ASEAN, G7, G20 ฯลฯ เพื่อพัฒนาคำแนะนำ เครื่องมือ และกฎระเบียบด้านจริยธรรมในด้าน AI และพัฒนาผลิตภัณฑ์ AI ที่มีความรับผิดชอบ (จากการวิจัย การออกแบบ การพัฒนา และการปรับใช้ผลิตภัณฑ์ AI) ให้สอดคล้องกับแนวปฏิบัติและกฎระเบียบปัจจุบันในเวียดนาม
รัฐมนตรีช่วยว่าการกระทรวงวิทยาศาสตร์และเทคโนโลยี บุ่ย เดอะ ดุย กล่าวว่า การพัฒนาแนวทางการวิจัยและพัฒนาปัญญาประดิษฐ์ (AI) อย่างมีความรับผิดชอบในเวียดนามจำเป็นต้องสอดคล้องกับเป้าหมายของสังคมที่มนุษย์เป็นศูนย์กลาง ซึ่งประชาชนได้รับประโยชน์ทั้งจากชีวิตและระบบ AI ขณะเดียวกัน ต้องมีความสมดุลระหว่างประโยชน์และความเสี่ยงของระบบ AI โดยเฉพาะอย่างยิ่ง การส่งเสริมประโยชน์ของ AI ผ่านกิจกรรมการวิจัย พัฒนา และนวัตกรรม และการลดความเสี่ยงจากการละเมิดสิทธิหรือผลประโยชน์อันชอบธรรมขององค์กรและบุคคลจากระบบ AI ให้เหลือน้อยที่สุด
ให้แน่ใจว่ากิจกรรมการวิจัยและพัฒนาระบบ AI จะขึ้นอยู่กับเทคโนโลยีหรือเทคนิคเฉพาะ โดยยังคงความเป็นกลางทางเทคโนโลยี และนักพัฒนาจะไม่ได้รับผลกระทบจากการพัฒนาอย่างรวดเร็วของเทคโนโลยีที่เกี่ยวข้องกับ AI ในอนาคต
กระทรวงวิทยาศาสตร์และเทคโนโลยียังกล่าวอีกว่าหลักการและแนวปฏิบัติดังกล่าวจะยังคงได้รับการวิจัยและปรับปรุงให้เหมาะสมกับสถานการณ์จริงต่อไป
ที่มา: https://dangcongsan.vn/khoa-hoc/9-nguyen-tac-nghien-cuu-phat-trien-he-thong-ai-co-trach-nhiem-667349.html
การแสดงความคิดเห็น (0)