เวียดนามมีกฎจริยธรรมด้าน AI ชุดแรกแล้ว

คาดว่าปัญญาประดิษฐ์ (AI) จะนำมาซึ่งประโยชน์อันยิ่งใหญ่ต่อผู้คน สังคม และ เศรษฐกิจ ของเวียดนาม ควบคู่ไปกับการประยุกต์ใช้ AI เวียดนามได้ทำการวิจัยและดำเนินมาตรการเพื่อลดความเสี่ยงในกระบวนการพัฒนาและใช้งาน AI โดยคำนึงถึงปัจจัยทางเศรษฐกิจ จริยธรรม และกฎหมาย

นี่ก็เป็นเหตุผลที่กระทรวง วิทยาศาสตร์ และเทคโนโลยี (MOST) ได้ออกเอกสารชุดหนึ่งที่เป็นแนวทางเกี่ยวกับหลักการต่างๆ เกี่ยวกับการวิจัยและพัฒนาระบบปัญญาประดิษฐ์อย่างมีความรับผิดชอบ

เอกสารแนะแนวกำหนดหลักการทั่วไปและคำแนะนำโดยสมัครใจจำนวนหนึ่งสำหรับการอ้างอิงและการประยุกต์ใช้ในกระบวนการวิจัย ออกแบบ พัฒนา และจัดทำระบบปัญญาประดิษฐ์

ขอเชิญชวนหน่วยงานด้านวิทยาศาสตร์และเทคโนโลยี องค์กร ธุรกิจ และบุคคลต่างๆ ที่มีส่วนร่วมในการวิจัย ออกแบบ พัฒนา และจัดเตรียมระบบปัญญาประดิษฐ์ ให้ใช้เอกสารแนะนำฉบับนี้

W-vien-han-lam- illustration-ai-tri-tue-nhan-tao-1.jpg
หุ่นยนต์จำลองของสถาบันวิทยาศาสตร์และเทคโนโลยีเวียดนามในงาน Vietnam International Innovation Exhibition 2023 ภาพโดย: Trong Dat

ดังนั้น การวิจัยและพัฒนาของระบบ AI ในเวียดนามจะต้องยึดตามมุมมองพื้นฐานในการก้าวไปสู่สังคมที่เน้นมนุษย์เป็นศูนย์กลาง โดยทุกคนได้รับประโยชน์จากปัญญาประดิษฐ์ โดยต้องรักษาสมดุลที่สมเหตุสมผลระหว่างประโยชน์และความเสี่ยง

กิจกรรมการวิจัยและพัฒนาระบบ AI ในเวียดนามมีจุดมุ่งหมายเพื่อให้แน่ใจว่าเทคโนโลยีมีความเป็นกลาง ในทุกกรณี กระทรวงวิทยาศาสตร์และเทคโนโลยี สนับสนุนให้มีการแลกเปลี่ยนและหารือกับฝ่ายที่เกี่ยวข้อง หลักการและแนวทางปฏิบัติจะยังคงได้รับการวิจัยและปรับปรุงให้เหมาะสมกับสถานการณ์จริง

กระทรวงวิทยาศาสตร์และเทคโนโลยีกล่าวว่า การเปิดตัวเอกสารดังกล่าวมีจุดมุ่งหมายเพื่อส่งเสริมความสนใจในการวิจัย พัฒนา และใช้งานปัญญาประดิษฐ์ในเวียดนามในลักษณะที่ปลอดภัยและรับผิดชอบ ลดผลกระทบเชิงลบต่อประชาชนและชุมชนให้เหลือน้อยที่สุด ซึ่งจะช่วยเพิ่มความไว้วางใจของผู้ใช้และสังคมที่มีต่อปัญญาประดิษฐ์ และอำนวยความสะดวกในการวิจัยและพัฒนาปัญญาประดิษฐ์ในเวียดนาม

หลักการพัฒนา AI อย่างมีความรับผิดชอบ

ในเอกสารนี้ นักพัฒนาได้รับการสนับสนุนให้แสดงให้เห็นถึงจิตวิญญาณแห่งความร่วมมือ ส่งเสริมนวัตกรรมผ่านการเชื่อมต่อและปฏิสัมพันธ์ของระบบปัญญาประดิษฐ์ นักพัฒนาต้องรับรองความโปร่งใสโดยควบคุมอินพุต/เอาต์พุตของระบบปัญญาประดิษฐ์และความสามารถในการอธิบายการวิเคราะห์ที่เกี่ยวข้อง

นักพัฒนาต้องให้ความสำคัญกับความสามารถในการควบคุมระบบปัญญาประดิษฐ์และประเมินความเสี่ยงที่เกี่ยวข้องล่วงหน้า วิธีหนึ่งในการประเมินความเสี่ยงคือการทดสอบในพื้นที่แยกต่างหาก เช่น ห้องปฏิบัติการหรือสภาพแวดล้อมที่รับประกันความปลอดภัยก่อนนำไปใช้จริง

นอกจากนี้ เพื่อให้แน่ใจว่าสามารถควบคุมระบบ AI ได้ นักพัฒนาควรให้ความสำคัญกับการติดตามระบบ (ด้วยเครื่องมือประเมิน/ตรวจสอบ หรือการแก้ไข/อัปเดตตามความคิดเห็นของผู้ใช้) และมาตรการตอบสนอง (การปิดระบบ การปิดเครือข่าย ฯลฯ) ที่ดำเนินการโดยมนุษย์หรือระบบ AI ที่เชื่อถือได้

หุ่นยนต์เอไอเอ อานันท์ 3.jpg
คนหนุ่มสาวถามคำถามกับหุ่นยนต์ปัญญาประดิษฐ์ "อานัน" ที่วิศวกรชาวเวียดนามพัฒนาขึ้น ภาพ: Trong Dat

ผู้พัฒนาต้องมั่นใจว่าระบบ AI จะไม่ก่อให้เกิดอันตรายต่อชีวิต ร่างกาย หรือทรัพย์สินของผู้ใช้หรือบุคคลที่สาม รวมถึงผ่านตัวกลาง ต้องให้ความสำคัญกับความปลอดภัยของระบบ AI ความน่าเชื่อถือ และความสามารถของระบบในการต้านทานการโจมตีทางกายภาพหรืออุบัติเหตุ ต้องมั่นใจว่าระบบ AI จะไม่ละเมิดความเป็นส่วนตัวของผู้ใช้หรือบุคคลที่สาม สิทธิความเป็นส่วนตัวที่กล่าวถึงในหลักการ ได้แก่ สิทธิในการมีความเป็นส่วนตัวของพื้นที่ (ความสงบในชีวิตส่วนตัว) สิทธิในการมีความเป็นส่วนตัวของข้อมูล (ข้อมูลส่วนบุคคล) และความลับของการสื่อสาร

ในการพัฒนาระบบปัญญาประดิษฐ์ นักพัฒนาต้องเอาใจใส่เป็นพิเศษในการเคารพสิทธิมนุษยชนและศักดิ์ศรีของมนุษยชาติ ในขอบเขตที่เป็นไปได้ ขึ้นอยู่กับลักษณะของเทคโนโลยีที่นำมาใช้ นักพัฒนาจะต้องใช้มาตรการเพื่อให้แน่ใจว่าจะไม่ก่อให้เกิดการเลือกปฏิบัติหรือความไม่เป็นธรรมอันเนื่องมาจากอคติในข้อมูลการฝึกอบรม ไม่เพียงเท่านั้น นักพัฒนายังต้องปฏิบัติตามความรับผิดชอบต่อผู้มีส่วนได้ส่วนเสียและสนับสนุนผู้ใช้ด้วย

นักข่าวยุค 4.0 ไม่ควรพลาด "รถไฟความเร็วสูง" AI แทนที่นักข่าวจะลังเลและกลัว AI นักข่าวควรนำปัญญาประดิษฐ์มาใช้ในการทำงานของห้องข่าวอย่างจริงจัง