ถือเป็นโอกาสอันเปราะบางแต่สำคัญในการสร้างความมั่นใจในความปลอดภัยในการประยุกต์ใช้ AI ในอนาคต โดยเฉพาะอย่างยิ่งเมื่อเวียดนามเพิ่งผ่านกฎหมายอุตสาหกรรม เทคโนโลยีดิจิทัล ซึ่งมีกฎระเบียบอย่างละเอียดเกี่ยวกับการจัดการปัญญาประดิษฐ์ (AI)
“หน้าต่างแห่งโอกาส” กำลังแคบลง
Bowen Baker นักวิจัยของ OpenAI เปิดเผยว่าในเอกสารร่วมล่าสุด นักวิจัยเตือนว่าความสามารถของ AI ในการติดตาม "ความคิด" อาจหายไปหากไม่มีการวิจัยที่มุ่งเน้นเป้าหมาย
สิ่งนี้มีความสำคัญอย่างยิ่ง เนื่องจากโมเดล AI มีประสิทธิภาพเพิ่มมากขึ้นและมีศักยภาพที่จะส่งผลกระทบร้ายแรงต่อสังคม
คุณลักษณะสำคัญของโมเดล AI ที่ใช้เหตุผล เช่น o-3 ของ OpenAI และ R1 ของ DeepSeek คือ "ห่วงโซ่แห่งความคิด" ( CoT) ซึ่งเป็นกระบวนการที่ AI แสดงขั้นตอนการใช้เหตุผลในภาษาธรรมชาติ คล้ายกับวิธีที่มนุษย์เขียนขั้นตอนต่างๆ ของโจทย์คณิตศาสตร์ลงบนกระดาษร่าง
ความสามารถนี้ช่วยให้เรามองเห็นภาพคร่าวๆ ได้ว่า AI ตัดสินใจอย่างไร
นี่ถือเป็นช่วงเวลาอันหายากแห่งความสามัคคีระหว่างผู้นำจำนวนมากในอุตสาหกรรม AI เพื่อผลักดันการวิจัยด้านความปลอดภัยของ AI
เรื่องนี้มีความเกี่ยวข้องอย่างยิ่งเมื่อพิจารณาถึงการแข่งขันที่ดุเดือดระหว่างบริษัทเทคโนโลยีในการพัฒนา AI บุคคลสำคัญที่ลงนามในรายงานฉบับนี้ ได้แก่ มาร์ค เฉิน ผู้อำนวยการฝ่ายวิจัย OpenAI, อิลยา ซัตสเคเวอร์ ซีอีโอของ Safe Superintelligence, เจฟฟรีย์ ฮินตัน ผู้ได้รับรางวัลโนเบล, เชน เลกก์ ผู้ร่วมก่อตั้ง Google DeepMind และแดน เฮนดริกส์ ที่ปรึกษาด้านความปลอดภัยของ xAI
การมีส่วนร่วมของชื่อชั้นนำเหล่านี้แสดงให้เห็นถึงความสำคัญของปัญหา
นอกจากนี้ ตามการประเมินของนายโบเวน เบเกอร์ “เราอยู่ในช่วงเวลาสำคัญที่มีสิ่งที่เรียกว่า ‘ห่วงโซ่ความคิด’ ใหม่ ซึ่งอาจจะหายไปในอีกไม่กี่ปีข้างหน้าหากผู้คนไม่ให้ความสำคัญกับมันจริงๆ”

เหตุใดการติดตาม “ความคิด AI” จึงมีความสำคัญ?
ระบบ AI ในปัจจุบันมักถูกมองว่าเป็น "กล่องดำ" นั่นคือ เรารู้ข้อมูลอินพุตและเอาต์พุต แต่ไม่เข้าใจกระบวนการตัดสินใจภายใน
สิ่งนี้จะกลายเป็นอันตรายเมื่อนำ AI ไปใช้ในสาขาที่สำคัญ เช่น การดูแล สุขภาพ การเงิน และความมั่นคงแห่งชาติ
การตรวจสอบ CoT เป็นระบบอัตโนมัติที่อ่านลำดับเหตุผลของแบบจำลองทางจิตและข้อมูลที่เกี่ยวข้องอื่นๆ เพื่อตรวจจับการโต้ตอบที่น่าสงสัยหรืออาจเป็นอันตราย การตรวจสอบ CoT ไม่ใช่โซลูชันที่สมบูรณ์แบบ แต่สามารถเป็นชั้นป้องกันความปลอดภัยอันทรงคุณค่าได้
การวิจัยจาก OpenAI แสดงให้เห็นว่าโมเดล AI มักจะระบุเจตนาในลำดับความคิดอย่างชัดเจนมาก
ตัวอย่างเช่น พวกเขามักจะระบุอย่างชัดเจนมากเกี่ยวกับแผนการที่จะทำลายภารกิจเมื่อพวกเขาคิดว่า "แฮ็กกันเถอะ" ซึ่งแสดงให้เห็นถึงความสามารถของ AI ในการตรวจสอบและตรวจจับพฤติกรรมที่ไม่เหมาะสม
“Let’s hack” คือวลีที่โมเดล AI มักจะ “คิด” เมื่อ “พวกเขา” ตั้งใจที่จะทำลายหรือหลบเลี่ยงกฎเกณฑ์ระหว่างการปฏิบัติงาน
ความจริงที่ว่า AI แสดงเจตนา "การแฮ็ก" ในกระบวนการคิด ชี้ให้เห็นว่าเราสามารถตรวจจับพฤติกรรม AI ที่ไม่ดีได้ก่อนที่จะเกิดขึ้น นี่คือเหตุผลที่การตรวจสอบกระบวนการคิดจึงมีความสำคัญ
กล่าวอีกนัยหนึ่ง “แฮ็กกันเถอะ” เป็นเหมือน “สัญญาณเตือน” ให้กับมนุษย์ว่า AI กำลังจะทำอะไรผิด
เวียดนามและกฎหมายเกี่ยวกับ AI
ในความเป็นจริง เวียดนามได้ก้าวหน้าอย่างสำคัญในการสร้างกรอบทางกฎหมายสำหรับ AI
เมื่อวันที่ 14 มิถุนายน รัฐสภา เวียดนามได้ผ่านกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัล ซึ่งบทที่ 4 มีระเบียบข้อบังคับโดยละเอียดเกี่ยวกับปัญญาประดิษฐ์ ซึ่งถือเป็นกรอบกฎหมายด้านปัญญาประดิษฐ์ที่ครอบคลุมที่สุดแห่งหนึ่งในเอเชียตะวันออกเฉียงใต้ในปัจจุบัน
มาตรา 41 ของกฎหมายกำหนดหลักการพื้นฐานสำหรับการพัฒนา การจัดหา และการใช้งาน AI ในเวียดนาม
โดยเฉพาะอย่างยิ่ง ข้อ b ข้อ 1 กำหนดไว้ว่า: “ให้แน่ใจว่ามีความโปร่งใส ความรับผิดชอบ ความสามารถในการอธิบายได้ ให้แน่ใจว่าจะไม่เกินการควบคุมของมนุษย์”

รัฐสภาผ่านร่างกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัล (ภาพ: Nhat Bac)
นี่คือหลักการที่นักวิทยาศาสตร์นานาชาติเรียกร้องเมื่อหารือเกี่ยวกับการเฝ้าระวังห่วงโซ่ AI
นอกจากนี้ ข้อ d ข้อ 1 ข้อ 41 ยังกำหนดว่า “ต้องรับประกันความสามารถในการควบคุมอัลกอริทึมและแบบจำลองปัญญาประดิษฐ์” ซึ่งสอดคล้องกับเจตนารมณ์ของการกำกับดูแล CoT ที่ผู้เชี่ยวชาญระหว่างประเทศเสนอไว้โดยสมบูรณ์
ที่สำคัญกว่านั้น มาตรา 41 วรรค 1 ข้อ a ยังกำหนดมาตรฐานทางจริยธรรมขั้นสูงเมื่อระบุว่า AI จะต้อง "ให้บริการความเจริญรุ่งเรืองและความสุขของมนุษย์ โดยมีผู้คนเป็นศูนย์กลาง"
ซึ่งหมายความว่าการตรวจสอบห่วงโซ่ความคิดของ AI ไม่ใช่เพียงข้อกำหนดทางเทคนิคเท่านั้น แต่ยังเป็นภาระผูกพันทางจริยธรรมอีกด้วย โดยต้องแน่ใจว่า AI จะมุ่งเน้นไปที่ประโยชน์ของมนุษย์ ไม่ใช่เป้าหมายของเครื่องจักรเอง
จำแนกและจัดการ AI ตามระดับความเสี่ยง
กฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัลของเวียดนามได้ก้าวไปอีกขั้นด้วยการแบ่งประเภท AI ออกเป็นกลุ่มความเสี่ยงต่างๆ โดยมีคำจำกัดความที่ชัดเจนและเป็นวิทยาศาสตร์
มาตรา 43 กำหนดนิยามของ “ระบบปัญญาประดิษฐ์ที่มีความเสี่ยงสูง” ว่าเป็นระบบที่อาจก่อให้เกิดความเสี่ยงร้ายแรงหรือเป็นอันตรายต่อสุขภาพของมนุษย์ สิทธิมนุษยชน และความสงบเรียบร้อยของประชาชน
ที่น่าสนใจคือ พระราชบัญญัติดังกล่าวมีข้อยกเว้นเฉพาะสำหรับ AI ที่มีความเสี่ยงสูง ซึ่งรวมถึงระบบ “ที่มุ่งหมายเพื่อช่วยให้มนุษย์ปรับปรุงผลลัพธ์ในการทำงานให้เหมาะสมที่สุด” และ “ไม่ได้มุ่งหมายที่จะแทนที่การตัดสินใจของมนุษย์”
สิ่งนี้แสดงถึงความคิดที่สมดุลระหว่างการส่งเสริมนวัตกรรมและการประกันความปลอดภัย

การจำแนก AI ตามระดับความเสี่ยงจะช่วยสร้างระบบการตรวจสอบแบบหลายชั้น (ภาพประกอบ: LinkedIn)
โดยเฉพาะอย่างยิ่ง การแยกแยะระหว่าง “AI ที่มีความเสี่ยงสูง” และ “AI ที่มีผลกระทบสูง” (ระบบที่ใช้เพื่อวัตถุประสงค์หลายประการ โดยมีผู้ใช้จำนวนมาก) แสดงให้เห็นถึงความละเอียดอ่อนในการดำเนินการ
ถือเป็นการจำแนกประเภทที่มีความก้าวหน้ามากกว่าพระราชบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรป (EU) ซึ่งไม่เพียงพิจารณาถึงระดับความเสี่ยงเท่านั้น แต่ยังรวมถึงขนาดและขอบเขตของผลกระทบด้วย
การแบ่งประเภทนี้จะช่วยสร้างระบบการกำกับดูแลแบบหลายชั้น โดยที่การกำกับดูแลแบบห่วงโซ่แห่งจิตสำนึกจะมีความสำคัญอย่างยิ่งสำหรับระบบ AI ที่มีความเสี่ยงสูงและมีผลกระทบสูง
แพลตฟอร์มสำหรับการเฝ้าระวังด้วย AI
จุดเด่นและคุณลักษณะเด่นประการหนึ่งของกฎหมายอุตสาหกรรมและเทคโนโลยีดิจิทัลของเวียดนามคือข้อกำหนดเกี่ยวกับความโปร่งใสและเครื่องหมายประจำตัว
มาตรา 44 กำหนดให้ระบบ AI ที่โต้ตอบกับมนุษย์โดยตรงต้องแจ้งให้ผู้ใช้ทราบว่าตนกำลังโต้ตอบกับระบบ AI ขณะเดียวกัน ผลิตภัณฑ์ที่สร้างโดย AI ต้องมีเครื่องหมายประจำตัว
สิ่งนี้มีนัยสำคัญต่อการนำการกำกับดูแล CoT มาใช้ เมื่อผู้ใช้รู้ว่าตนเองกำลังโต้ตอบกับ AI พวกเขามีสิทธิ์ที่จะเรียกร้องคำอธิบายเกี่ยวกับกระบวนการตัดสินใจ ซึ่งสร้างแรงกดดันเชิงบวกให้นักพัฒนา AI รักษาความสามารถในการตรวจสอบกระบวนการคิดของ AI ไว้
โดยเฉพาะอย่างยิ่งการที่กระทรวงวิทยาศาสตร์และเทคโนโลยีได้รับมอบหมายให้รับผิดชอบในการ "ออกรายชื่อผลิตภัณฑ์เทคโนโลยีดิจิทัลที่สร้างด้วยปัญญาประดิษฐ์" แสดงให้เห็นถึงการบริหารจัดการเชิงรุก
นี่ถือเป็นความแตกต่างที่สำคัญจากประเทศอื่นๆ หลายแห่ง ซึ่งกฎระเบียบด้าน AI มักจะทั่วไปกว่า
ยิ่งไปกว่านั้น การกำหนดให้ต้องมีตัวระบุ "เพื่อการจดจำของมนุษย์หรือเครื่องจักร" ถือเป็นวิสัยทัศน์ของระบบนิเวศ AI ที่จะสามารถควบคุมตัวเองได้ ซึ่งสอดคล้องกับแนวคิดในการเฝ้าระวังห่วงโซ่ความคิดอัตโนมัติ
รูปแบบการบริหารจัดการแบบครอบคลุม
มาตรา 45 ของกฎหมายข้างต้นแสดงให้เห็นถึงปรัชญาการบริหารจัดการแบบก้าวหน้า โดยกำหนดความรับผิดชอบของกลุ่มวิชา 3 กลุ่มอย่างชัดเจนตามวงจรชีวิตผลิตภัณฑ์ AI ได้แก่ กลุ่มวิชาที่กำลังพัฒนา กลุ่มวิชาที่จัดหา และกลุ่มวิชาที่ปรับใช้และใช้งานระบบ AI
สิ่งนี้จะสร้างระบบความรับผิดชอบแบบครบวงจรที่ราบรื่น ช่วยให้มั่นใจได้ว่าการกำกับดูแล AI ไม่ใช่ความรับผิดชอบของฝ่ายเดียวเท่านั้น
ที่น่าสังเกตคือ มีความแตกต่างที่ละเอียดอ่อนระหว่างการ "พัฒนา" และ "จัดหา" AI โดยนักพัฒนาคือผู้ที่ "ค้นคว้าและพัฒนา" ในขณะที่ผู้ให้บริการคือผู้ที่นำ AI ออกสู่ตลาดภายใต้ชื่อแบรนด์
ซึ่งหมายความว่าแม้ว่าบริษัทจะเพียงแค่สร้างแบรนด์ใหม่ให้กับโมเดล AI ที่มีอยู่แล้ว บริษัทก็ยังต้องรับผิดชอบต่อความโปร่งใสและความสามารถในการอธิบาย

สิ่งที่น่าสนใจเป็นพิเศษที่นี่คือกฎหมายกำหนดความรับผิดชอบที่แตกต่างกันให้กับแต่ละเรื่อง
ผู้พัฒนาจะต้องปฏิบัติตามหลักการทั้งหมด ผู้ให้บริการจะต้องรับผิดชอบเพิ่มเติมสำหรับการระบุและการจัดการความเสี่ยงสูง และผู้ใช้จะ "ได้รับการยกเว้น" จากความรับผิดชอบบางส่วน แต่ยังคงต้องมั่นใจในความโปร่งใสและการควบคุมความเสี่ยง
โมเดลนี้สร้าง "ห่วงโซ่แห่งความรับผิดชอบ" โดยที่แต่ละลิงก์มีแรงจูงใจที่จะรักษาการกำกับดูแลห่วงโซ่ความคิดของ AI เนื่องจากทั้งหมดต้องรับผิดชอบต่อผู้ใช้ปลายทาง
ความท้าทายในการรักษาความสามารถในการเฝ้าระวัง
อย่างไรก็ตาม ความสามารถในการตรวจสอบห่วงโซ่ความคิดของ AI อาจยังคงเปราะบางและเสี่ยงต่ออันตราย สถาปัตยกรรม AI ใหม่ ๆ อาจก่อให้เกิดภัยคุกคามอื่น ๆ ได้เช่นกัน
นักวิจัยจำนวนมากกำลังพัฒนาระบบการใช้เหตุผลในพื้นที่คณิตศาสตร์ต่อเนื่อง แทนที่จะเป็นคำศัพท์ที่แยกจากกัน ซึ่งอาจขจัดความจำเป็นในการใช้ภาษาในการคิดได้อย่างสิ้นเชิง
ยิ่งไปกว่านั้น AI ยังสามารถ "กรอง" ได้ ซึ่งหมายความว่า มันจะแสดงเฉพาะความคิดเชิงบวกของมนุษย์เพื่อให้ได้รับการชื่นชม ในขณะที่ซ่อนเจตนาที่แท้จริงไว้โดยเจตนา
สิ่งที่เป็นอันตรายในที่นี้คือ เมื่อ AI ตระหนักว่ากำลังถูกตรวจสอบ มันก็อาจเรียนรู้ที่จะซ่อนความคิดที่แท้จริงของมันได้
ในบริบทนี้ บทบัญญัติว่าด้วย “การควบคุมความเสี่ยงตลอดวงจรชีวิตของระบบปัญญาประดิษฐ์” ในข้อ e วรรค 1 มาตรา 41 ของกฎหมายเวียดนามจึงมีความสำคัญอย่างยิ่ง จำเป็นต้องมีกลไกการติดตามตรวจสอบอย่างต่อเนื่อง ไม่ใช่แค่เฉพาะในช่วงเวลาที่ใช้งานเท่านั้น
ผลกระทบต่ออนาคตของการพัฒนา AI
การตรวจสอบห่วงโซ่ความคิดอาจกลายเป็นเครื่องมือสำคัญเพื่อให้แน่ใจว่า AI ทำงานในรูปแบบที่เป็นประโยชน์ต่อมนุษย์
หากโมเดลยังคงใช้เหตุผลในภาษาธรรมชาติ และหากพฤติกรรมที่ก่อให้เกิดความเสี่ยงร้ายแรงที่สุดต้องใช้การใช้เหตุผลอย่างกว้างขวาง การปฏิบัตินี้จะช่วยให้ตรวจจับการประพฤติมิชอบที่ร้ายแรงได้อย่างน่าเชื่อถือ
สำหรับเวียดนาม การใช้เทคนิคการติดตาม CoT จะช่วยให้บังคับใช้บทบัญญัติทางกฎหมายได้อย่างมีประสิทธิภาพ
ตัวอย่างเช่น ข้อกำหนดเรื่อง “ความสามารถในการอธิบาย” ในมาตรา 41 จะบรรลุผลได้ง่ายขึ้นหากกระบวนการคิดของปัญญาประดิษฐ์สามารถเข้าถึงได้ เช่นเดียวกัน “การควบคุมอัลกอริทึมและแบบจำลองปัญญาประดิษฐ์” ก็จะเป็นไปได้มากขึ้น
การนำระบบติดตาม AI มาใช้ในเวียดนามจะต้องเผชิญกับความท้าทายหลายประการ ประการแรกคือปัญหาด้านทรัพยากรบุคคล ซึ่งก็คือการขาดแคลนผู้เชี่ยวชาญด้าน AI ที่สามารถพัฒนาและใช้งานระบบติดตามได้
สิ่งนี้ต้องใช้การลงทุนอย่างหนักในการฝึกอบรมและดึงดูดผู้มีความสามารถ
ทิศทางสู่อนาคต
นักวิจัยเรียกร้องให้นักพัฒนาโมเดล AI ชั้นนำทำการวิจัยว่าปัจจัยใดที่ทำให้ CoT “ตรวจสอบได้” และปัจจัยใดที่สามารถเพิ่มหรือลดความโปร่งใสเกี่ยวกับวิธีการทำงานของโมเดล AI และให้คำตอบในเร็วๆ นี้
โอกาสในการตรวจสอบ "ความคิด" ของ AI อาจเป็นหน้าต่างบานสุดท้ายของเราในการรักษาการควบคุมระบบปัญญาประดิษฐ์อันทรงพลังที่เพิ่มขึ้นในปัจจุบัน

สำหรับเวียดนาม การมีกรอบกฎหมายที่ครอบคลุมเกี่ยวกับ AI ผ่านกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัลถือเป็นข้อได้เปรียบอย่างมาก กฎระเบียบเกี่ยวกับความโปร่งใส การควบคุมอัลกอริทึม และการจำแนกความเสี่ยง ได้สร้างรากฐานทางกฎหมายที่แข็งแกร่งสำหรับการประยุกต์ใช้เทคนิคการตรวจสอบห่วงโซ่ความคิดด้าน AI
การผสมผสานการวิจัยระดับนานาชาติที่ล้ำสมัยและกรอบกฎหมายภายในประเทศที่ก้าวหน้าจะช่วยให้เวียดนามไม่เพียงแต่พัฒนา AI อย่างปลอดภัยเท่านั้น แต่ยังกลายเป็นต้นแบบให้กับประเทศอื่นๆ ในภูมิภาคอีกด้วย
สอดคล้องกับเป้าหมายที่ต้องการเปลี่ยนเวียดนามให้เป็น “ศูนย์กลางเทคโนโลยีดิจิทัลระดับภูมิภาคและระดับโลก” ตามที่กำหนดไว้ในกลยุทธ์การพัฒนาระดับชาติ
ด้วยรากฐานทางกฎหมายที่มีอยู่ เวียดนามจำเป็นต้องเร่งพัฒนางานวิจัยและการประยุกต์ใช้จริงเพื่อติดตามห่วงโซ่ความคิดด้าน AI การทำเช่นนี้เท่านั้นที่จะทำให้มั่นใจได้ว่า AI จะส่งเสริม “ความเจริญรุ่งเรืองและความสุขของมนุษย์” ตามที่เจตนารมณ์ของกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัลได้กำหนดไว้
ที่มา: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm
การแสดงความคิดเห็น (0)