มีความจำเป็นต้องควบคุมพฤติกรรมต้องห้ามในการวิจัยและการประยุกต์ใช้ AI
ปัญญาประดิษฐ์ (AI) กำลังกลายเป็นเทคโนโลยีล้ำสมัยของการปฏิวัติอุตสาหกรรม 4.0 ซึ่งเปิดโอกาสอันยิ่งใหญ่มากมายสำหรับการพัฒนา ทางเศรษฐกิจ และสังคม อย่างไรก็ตาม ปัญญาประดิษฐ์ยังก่อให้เกิดความท้าทายเร่งด่วนมากมายในด้านการบริหารจัดการ จริยธรรม และความปลอดภัย ซึ่งกฎหมายปัจจุบันยังไม่ครอบคลุมอย่างครบถ้วน
ดังนั้น สมาชิกสภานิติบัญญัติแห่งชาติจึงเห็นพ้องต้องกันถึงความจำเป็นในการจัดทำร่างกฎหมายปัญญาประดิษฐ์ เพื่อสร้างช่องทางทางกฎหมายที่ก้าวล้ำสำหรับปัญญาประดิษฐ์ สร้างสภาพแวดล้อมทางกฎหมายที่เอื้ออำนวยต่อการส่งเสริมนวัตกรรม เพิ่มขีดความสามารถในการแข่งขันของประเทศ และในขณะเดียวกันก็บริหารจัดการความเสี่ยง ปกป้องผลประโยชน์ของชาติและสิทธิมนุษยชน

นาย Tran Dinh Chung สมาชิกรัฐสภา (ดานัง) แสดงความกังวลเกี่ยวกับการใช้ AI ในหน่วยงานของรัฐ โดยกล่าวว่า AI จะช่วยให้หน่วยงาน เจ้าหน้าที่ และข้าราชการประหยัดเวลาได้มาก ประมวลผลงานได้รวดเร็วและสอดประสานกันมากขึ้น ซึ่งจะช่วยยกระดับคุณภาพงานให้ดีขึ้น
นอกเหนือจากประโยชน์ด้านต้นทุนและเวลาของการนำ AI มาใช้ในหน่วยงานของรัฐแล้ว ผู้แทนยังตั้งข้อสังเกตว่าปัจจุบันยังมีประเด็นต่างๆ มากมายที่ต้องมีการศึกษาเพิ่มเติมและระบุไว้ในร่างกฎหมาย
ประการแรกคือ ความปลอดภัยในการใช้งาน AI เนื่องจากปัจจุบันเจ้าหน้าที่และข้าราชการต้องป้อนข้อมูลสำหรับการฝึกอบรม AI และระหว่างการปฏิบัติงาน ดังนั้น หากไม่ได้รับการจัดการอย่างเข้มงวด อาจมีความเสี่ยงที่ข้อมูลภายใน ข้อมูลที่ละเอียดอ่อน หรือข้อมูลลับของรัฐจะถูกนำไปใส่ในซอฟต์แวร์ AI หรือข้อมูลอาจถูกนำไปใช้เพื่อวัตถุประสงค์อื่นนอกเหนือจากการฝึกอบรม AI นอกจากนี้ ข้อมูลยังเป็นประเด็นที่น่ากังวลเมื่อไม่มีกฎระเบียบเฉพาะเกี่ยวกับวิธีการจัดเก็บ สถานที่จัดเก็บ และสิทธิ์การเข้าถึง
ประการที่สอง การรวมข้อมูลจำนวนมากจากหน่วยงานรัฐไว้ในซอฟต์แวร์ AI ยังก่อให้เกิดความเสี่ยงที่แฮกเกอร์จะโจมตีและขโมยข้อมูล โดยเฉพาะอย่างยิ่ง ความเสี่ยงนี้กำลังเพิ่มขึ้น เนื่องจากหน่วยงานรัฐไม่สามารถสร้างและใช้งานซอฟต์แวร์ AI ได้ด้วยตนเอง แต่มักต้องอาศัยความร่วมมือจากภายนอก ขณะเดียวกัน สปายแวร์จากต่างประเทศก็กำลังพัฒนาเช่นกัน ดังนั้น การใช้ AI จึงมีความเสี่ยงต่อการถูกขโมยและถูกครอบงำข้อมูล
ประการที่สาม ความเสี่ยงอีกประการหนึ่งคือความแม่นยำ เนื่องจากซอฟต์แวร์ AI อาจให้ผลลัพธ์ที่ไม่แม่นยำเนื่องจากการเรียนรู้จากข้อมูลที่มีอยู่ และอาจได้รับอคติหรือวิธีการแก้ปัญหาที่ไม่ถูกต้องที่ข้าราชการเคยใช้ในอดีต “ข้อมูลที่ไม่ถูกต้องหรือไม่สมบูรณ์ก็ส่งผลกระทบอย่างมากต่อคุณภาพของ AI” ผู้แทนกล่าวเน้นย้ำ
เจ้าหน้าที่ ข้าราชการ หรือประชาชนไม่มีทักษะในการถามคำถามกับ AI ทำให้ได้รับคำตอบที่จำกัด ในขณะเดียวกัน AI ยังต้องใช้เวลาในการปรับปรุงเอกสารทางกฎหมายและคำสั่งใหม่ๆ จากหน่วยงานของรัฐ

ประการที่สี่ คุณภาพของ AI ในปัจจุบันยังไม่ตรงตามข้อกำหนด โมเดล AI บางรุ่นมีความซับซ้อนมาก ทำให้ยากต่อการควบคุมกระบวนการวิเคราะห์ ประมวลผลข้อมูล และอธิบายเหตุผลที่ AI ตัดสินใจบางอย่าง นอกจากนี้ ปัญหาข้อผิดพลาดในอัลกอริทึมหรือระบบ AI ยังนำไปสู่ข้อผิดพลาดอีกด้วย
นอกเหนือจากข้อกำหนดด้านโครงสร้างพื้นฐานทางเทคนิคและทรัพยากรบุคคลในการประยุกต์ใช้ AI ในหน่วยงานของรัฐแล้ว ผู้แทน Tran Dinh Chung ยังตั้งข้อสังเกตว่า จำเป็นต้องให้ความสำคัญกับความเสี่ยงในการใช้เทคโนโลยี AI ในทางที่ผิด ซึ่งจะลดทักษะของข้าราชการ เจ้าหน้าที่จะทำการวิจัยน้อยลง เพราะคิดว่าแค่ผลักดันเทคโนโลยี AI เข้าไปในซอฟต์แวร์ก็เพียงพอแล้ว เพื่อให้ AI สามารถช่วยตอบคำถามที่น่ากังวลได้
การใช้เทคโนโลยี AI ในหน่วยงานภาครัฐเป็นแนวโน้มที่หลีกเลี่ยงไม่ได้ แต่การใช้เทคโนโลยี AI เพื่อประกันประสิทธิภาพการทำงานควบคู่ไปกับการรักษาความมั่นคงปลอดภัยของข้อมูล ยังคงเป็นประเด็นที่ถูกหยิบยกขึ้นมาพูดถึง ดังนั้น ผู้แทน Tran Dinh Chung จึงเห็นชอบที่จะจัดทำโครงการกฎหมายปัญญาประดิษฐ์ (AI) แต่ได้เสนอให้มีการทบทวนอย่างต่อเนื่องเพื่อให้มั่นใจว่ามีความสอดคล้องและสอดคล้องกับกฎหมายที่เกี่ยวข้อง
ผู้แทนยังได้เสนอให้ศึกษาและเพิ่มบทบัญญัติในการควบคุมพฤติกรรมและกิจกรรมต้องห้ามในการวิจัย การประยุกต์ใช้ และการนำ AI มาใช้ แทนที่จะวางไว้กระจัดกระจายอยู่ในบทบัญญัติต่างๆ มากมายของร่างกฎหมายดังเช่นในปัจจุบัน ซึ่งจะทำให้เกิดความยากลำบากในการติดตามตรวจสอบ
ผู้แทนกล่าวว่า การกำหนดความรับผิดชอบทางกฎหมายของ AI อย่างชัดเจนเป็นสิ่งสำคัญอย่างยิ่ง เพื่อป้องกันข้อพิพาททางกฎหมายในอนาคต รวมถึงการจัดการกับการละเมิดต่างๆ ในทางกลับกัน AI เกี่ยวข้องกับเครื่องจักรและเทคโนโลยี ดังนั้น นอกจากความผิดพลาดที่เกิดจากมนุษย์แล้ว ยังสามารถโทษเครื่องจักร เทคโนโลยี หรือปัจจัยอื่นๆ ได้อีกด้วย ดังนั้น จำเป็นต้องมีการวิจัยเพื่อกำหนดขอบเขตความรับผิดชอบทางกฎหมายให้ชัดเจน เพื่อหลีกเลี่ยงความคลุมเครือของความรับผิดชอบทางกฎหมาย โดยเฉพาะอย่างยิ่งในการนำ AI ไปใช้ในหน่วยงานภาครัฐ
จำเป็นต้องกำหนดหน่วยงานที่รับผิดชอบการบริหารความเสี่ยงในแต่ละสาขาให้ชัดเจน
ด้วยความกังวลเกี่ยวกับการจัดการระบบปัญญาประดิษฐ์ที่มีความเสี่ยงสูงตามที่กำหนดไว้ในมาตรา II บทที่ II ของร่างกฎหมาย รองประธานสภานิติบัญญัติแห่งชาติ เวือง ถิ เฮือง (เตวียน กวาง) กล่าวว่าภาค การดูแลสุขภาพ จำเป็นต้องถูกระบุว่าเป็นหนึ่งในภาคส่วนที่มีความเสี่ยงสูงเมื่อนำปัญญาประดิษฐ์มาใช้ เนื่องจากผลกระทบโดยตรงต่อชีวิตและสุขภาพของมนุษย์ ข้อมูลส่วนบุคคลที่ละเอียดอ่อน และความไว้วางใจทางสังคม ระบบปัญญาประดิษฐ์ที่รองรับการวินิจฉัยภาพ การรักษาโรค การผ่าตัด การวิเคราะห์ยีน ฯลฯ หากขาดการตรวจสอบ ขาดมาตรฐานความปลอดภัย หรือขาดความโปร่งใสในข้อมูลการฝึกอบรม อาจก่อให้เกิดผลกระทบร้ายแรงหรือไม่สามารถย้อนกลับได้

ร่างกฎหมายกำหนดวิธีการจำแนกและการจัดการความเสี่ยง แต่ไม่ได้ระบุหน่วยงานที่รับผิดชอบการจัดการในแต่ละสาขาอย่างชัดเจน ขณะเดียวกัน ผู้แทนพบว่าในภาคสาธารณสุข หากมอบหมายการประสานงานทั่วไปให้กับหน่วยงานบริหารจัดการเทคโนโลยีสารสนเทศโดยไม่กำหนดบทบาทของภาคสาธารณสุขอย่างชัดเจน อาจนำไปสู่ความซ้ำซ้อนในการประเมิน การขาดความสม่ำเสมอในมาตรฐานวิชาชีพ และความยากลำบากในการจัดการผลิตภัณฑ์ปัญญาประดิษฐ์ที่ใช้เป็นอุปกรณ์ทางการแพทย์หรือใช้ในการตรวจและรักษาพยาบาล
จึงเสนอให้เพิ่มเติมระเบียบให้กระทรวงสาธารณสุขเป็นประธานในการบริหารจัดการระบบปัญญาประดิษฐ์ที่มีความเสี่ยงสูงในสาขาการแพทย์ ประสานงานกับกระทรวงเทคโนโลยีสารสนเทศและการสื่อสาร และกระทรวงและสาขาที่เกี่ยวข้อง เพื่อประกาศใช้มาตรฐานทางเทคนิค การประเมินทางคลินิก และการตรวจสอบความปลอดภัย ออกระเบียบว่าด้วยการรักษาความปลอดภัยข้อมูลเวชระเบียนและการเชื่อมโยงระบบสารสนเทศทางการแพทย์ และติดตามความเสี่ยงระหว่างการใช้งาน
“การกำหนดจุดโฟกัสให้ชัดเจนจะสร้างพื้นฐานทางกฎหมายที่มั่นคง รับรองความปลอดภัยของผู้ป่วย และในขณะเดียวกันก็สร้างเงื่อนไขให้ธุรกิจเทคโนโลยีและสถานพยาบาลปรับใช้แอปพลิเคชัน AI ในลักษณะที่โปร่งใสและควบคุมได้” ผู้แทน Vuong Thi Huong กล่าวเน้นย้ำ
นายเบ มินห์ ดึ๊ก (กาว บั่ง) สมาชิกสภานิติบัญญัติแห่งชาติ เห็นด้วยกับบทบัญญัติเกี่ยวกับกองทุนพัฒนาปัญญาประดิษฐ์แห่งชาติในมาตรา 23 ของร่างกฎหมาย โดยกล่าวว่ากองทุนนี้จัดตั้งขึ้นเพื่อส่งเสริมและสนับสนุนศักยภาพด้านการวิจัยและการประยุกต์ใช้ปัญญาประดิษฐ์ในประเทศ อย่างไรก็ตาม ปัจจุบันเรามีกองทุนพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติและกองทุนนวัตกรรมเทคโนโลยีแห่งชาติ ซึ่งมีเป้าหมายเพื่อสนับสนุนการวิจัยและนวัตกรรมเทคโนโลยี รวมถึงปัญญาประดิษฐ์ด้วย

แม้ว่าขอบเขตและเป้าหมายของกองทุนแต่ละประเภทจะแตกต่างกัน แต่กองทุนเหล่านี้ล้วนมุ่งเน้นไปที่สาขาวิทยาศาสตร์และเทคโนโลยี ดังนั้น จึงขอแนะนำให้ทบทวนและกำหนดความสัมพันธ์ระหว่างกองทุนแต่ละประเภทเพื่อส่งเสริมประสิทธิภาพของกองทุนแต่ละประเภท หลีกเลี่ยงการทำงานซ้ำซ้อน การกระจายทรัพยากร และเพิ่มภาระงบประมาณ
แม้ว่าจะอยู่ภายใต้กระทรวงบริหารเดียวกัน ผู้แทนจึงเสนอแนะว่าจำเป็นต้องพิจารณาการรวมกองทุนทั้งสามประเภทนี้เข้าด้วยกัน โดยมุ่งเน้นทรัพยากรเพื่อดำเนินนโยบายสนับสนุนการพัฒนาวิทยาศาสตร์และเทคโนโลยีที่เอื้ออำนวยมากขึ้น
นอกจากนี้ ผู้แทนเบ มินห์ ดึ๊ก ยังเสนอแนะว่ากฎหมายเฉพาะทางที่เกี่ยวข้องควรมีกฎระเบียบเฉพาะเกี่ยวกับปัญญาประดิษฐ์ในแต่ละสาขาด้วย ซึ่งเป็นหลักการที่จำเป็นต้องมีการกำกับดูแล เนื่องจากประเทศของเรากำลังก้าวเข้าสู่ยุคดิจิทัล ปัญญาประดิษฐ์ได้รับการวิจัยและนำไปใช้อย่างกว้างขวางในทุกอุตสาหกรรม ทุกสาขาสังคม-เศรษฐกิจ กลาโหม และความมั่นคง การนำหลักการข้างต้นมาประยุกต์ใช้จะช่วยให้มั่นใจได้ว่ามีการกำกับดูแลประเด็นเฉพาะอย่างครอบคลุมและสอดคล้องกับข้อกำหนดด้านการบริหารจัดการในบริบทของเทคโนโลยีที่พัฒนาอย่างรวดเร็วในปัจจุบัน
ที่มา: https://daibieunhandan.vn/gop-3-quy-ve-khoa-hoc-cong-nghe-giup-tap-trung-nguon-luc-10396526.html






การแสดงความคิดเห็น (0)