เมื่อวันที่ 10 และ 11 กรกฎาคม กระทรวงยุติธรรม ประสานงานกับมูลนิธิ Hanns Seidel จัดการประชุมเชิงปฏิบัติการเกี่ยวกับความรับผิดชอบทางกฎหมายของนิติบุคคลที่เกี่ยวข้องกับปัญญาประดิษฐ์
จำเป็นต้องเพิ่มบทบัญญัติเกี่ยวกับความรับผิดชอบทางกฎหมาย
ในการพูดที่การประชุมเชิงปฏิบัติการ นาย Tran Tien Sung รองรัฐมนตรีว่าการกระทรวงยุติธรรม กล่าวว่า เราได้เห็นผลกระทบอันลึกซึ้งและทรงพลังของการปฏิวัติอุตสาหกรรมครั้งที่ 4 (อุตสาหกรรม 4.0) ด้วยเทคโนโลยีล้ำสมัย เช่น บล็อกเชน บิ๊กดาต้า หุ่นยนต์ อินเทอร์เน็ตของทุกสรรพสิ่ง (IoT) คลาวด์คอมพิวติ้ง... ซึ่งความก้าวหน้าทางเทคโนโลยีปัญญาประดิษฐ์ (AI) โดดเด่นเป็นอย่างมาก

การพัฒนาและการประยุกต์ใช้เทคโนโลยี AI ในวงกว้างในหลายสาขา เช่น การขนส่ง การเงิน การค้าปลีก การโฆษณา ฯลฯ นำมาซึ่งโอกาสและความท้าทายมากมาย รวมถึงความท้าทายทางกฎหมาย เช่น ปัญหาความปลอดภัย ปัญหาในการปกป้องความเป็นส่วนตัวของแต่ละบุคคล ปัญหาในการปกป้องสิทธิในทรัพย์สินทางปัญญา ปัญหาเกี่ยวกับมาตรฐานอุตสาหกรรมการก่อสร้าง ปัญหาในการกำหนดความรับผิดชอบทางกฎหมายของบุคคลที่เกี่ยวข้องกับ AI
เมื่อวันที่ 26 มกราคม 2021 นายกรัฐมนตรี ได้ออกมติหมายเลข 127/QD-TTg เกี่ยวกับยุทธศาสตร์แห่งชาติด้านการวิจัย พัฒนา และการประยุกต์ใช้จนถึงปี 2030 โดยกระทรวงยุติธรรมได้รับมอบหมายให้ดำเนินการพัฒนาและจัดทำเอกสารทางกฎหมายเพิ่มเติมเกี่ยวกับความรับผิดชอบทางกฎหมายของวิชาที่เกี่ยวข้องกับปัญญาประดิษฐ์
รองปลัดกระทรวงฯ นายทราน เตียน ดุง เน้นย้ำว่า เพื่อพัฒนาและทำให้เอกสารทางกฎหมายเพิ่มเติมเกี่ยวกับความรับผิดชอบทางกฎหมายของหน่วยงานที่เกี่ยวข้องกับปัญญาประดิษฐ์เสร็จสมบูรณ์ เราจำเป็นต้องเข้าใจความเสี่ยงที่ปัญญาประดิษฐ์ก่อขึ้นอย่างชัดเจน โดยอ้างอิงจากประสบการณ์ระหว่างประเทศ รวมถึงประสบการณ์ของสหภาพยุโรปและสาธารณรัฐสหพันธ์เยอรมนีในการประกาศใช้หรือแก้ไขและเพิ่มเติมเอกสารทางกฎหมายที่เกี่ยวข้องกับความรับผิดชอบทางกฎหมายของหน่วยงานที่เกี่ยวข้องกับปัญญาประดิษฐ์
การใช้ AI เพื่อก่ออาชญากรรมเป็นสถานการณ์ที่น่าหนักใจ
ตามที่นางสาวเล ทิ วัน อันห์ รองอธิบดีกรมกฎหมายอาญาและการปกครอง กระทรวงยุติธรรม ได้กล่าวไว้ว่า มีหัวข้อที่เกี่ยวข้องกับ AI อยู่ 4 หัวข้อ ได้แก่ (1) หัวข้อที่สร้าง AI โปรแกรมเมอร์และผู้เขียนที่ออกแบบซอฟต์แวร์ (2) เจ้าของ AI ผู้ผลิตและผู้ลงทุน (3) ผู้ใช้ที่นำ AI ไปใช้ ตรวจสอบกระบวนการทำงาน และสุดท้าย (4) ตัวองค์กร AI เอง
ในกรณีที่ผู้ผลิต เจ้าของผลิตภัณฑ์ และผู้ใช้ผลิตภัณฑ์ AI ใช้ AI เพื่อก่ออาชญากรรม ผู้ที่เกี่ยวข้องเหล่านี้จะต้องมีความรับผิดทางอาญา
ประมวลกฎหมายอาญา พ.ศ. 2558 กำหนดความผิดหลายประการในด้านข้อมูล รวมถึงความผิดที่เกี่ยวข้องกับปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่ง มาตรา 285 ของประมวลกฎหมายอาญา กำหนดความผิดฐานผลิต ซื้อขาย แลกเปลี่ยน หรือให้เครื่องมือ อุปกรณ์ และซอฟต์แวร์ไปเพื่อวัตถุประสงค์ที่ผิดกฎหมาย มาตรา 286 ของประมวลกฎหมายอาญา กำหนดความผิดฐานเผยแพร่โปรแกรมคอมพิวเตอร์ที่ก่อให้เกิดความเสียหายต่อการทำงานของเครือข่ายคอมพิวเตอร์ เครือข่ายโทรคมนาคม และอุปกรณ์อิเล็กทรอนิกส์ มาตรา 287 ของประมวลกฎหมายอาญา กำหนดความผิดฐานขัดขวางและรบกวนการทำงานของเครือข่ายคอมพิวเตอร์ เครือข่ายโทรคมนาคม และอุปกรณ์อิเล็กทรอนิกส์ของผู้อื่น มาตรา 289 ของประมวลกฎหมายอาญา กำหนดความผิดฐานเข้าถึงเครือข่ายคอมพิวเตอร์ เครือข่ายโทรคมนาคม และอุปกรณ์อิเล็กทรอนิกส์โดยผิดกฎหมาย มาตรา 290 ของประมวลกฎหมายอาญา กำหนดความผิดฐานใช้เครือข่ายคอมพิวเตอร์ เครือข่ายโทรคมนาคม และอุปกรณ์อิเล็กทรอนิกส์เพื่อกระทำการยักยอกทรัพย์
อย่างไรก็ตาม กฎหมายอาญาปัจจุบันไม่ได้ควบคุมกรณีที่ใช้ AI เพื่อก่ออาชญากรรมโดยตรง ดังนั้น ตามที่นางวัน อันห์ กล่าว ผู้ที่เกี่ยวข้องกับ AI รวมถึงบุคคล เจ้าของ และผู้ใช้ ถือเป็นอาชญากรและต้องรับโทษทางอาญา
กฎหมายอาญาจำเป็นต้องมีกฎระเบียบที่เฉพาะเจาะจงเพื่อจัดการกับพฤติกรรมที่เกี่ยวข้องกับ AI โดยตรง เช่น การผลิต การออกแบบ และการเขียนโปรแกรมผลิตภัณฑ์ AI เพื่อจุดประสงค์ในการก่ออาชญากรรม และการใช้ผลิตภัณฑ์ AI เพื่อก่ออาชญากรรม
จากนั้น นางสาววัน อันห์ เชื่อว่าเป็นไปได้ที่จะกำหนดว่าการใช้ผลิตภัณฑ์ปัญญาประดิษฐ์เพื่อก่ออาชญากรรมเป็นสถานการณ์ที่เพิ่มโทษทางอาญาได้ ด้วยข้อบังคับนี้ กฎหมายนี้สามารถนำไปใช้กับอาชญากรรมใดๆ ก็ตามที่กำหนดไว้ในประมวลกฎหมายอาญาได้ นอกจากนี้ ยังสามารถศึกษาข้อบังคับในการแยกแยะความรับผิดทางอาญาในกรณีการใช้ปัญญาประดิษฐ์เพื่อก่ออาชญากรรม เช่น ปัญหาการสมรู้ร่วมคิด อาชญากรรมที่ก่อโดยองค์กร เป็นต้น
แหล่งที่มา
การแสดงความคิดเห็น (0)