Vietnam.vn - Nền tảng quảng bá Việt Nam

การติดตาม “ห่วงโซ่ความคิด” ของปัญญาประดิษฐ์

(Dan Tri) - นักวิทยาศาสตร์มากกว่า 40 คนจาก OpenAI, Google DeepMind, Anthropic และ Meta ร่วมกันเรียกร้องให้มีการวิจัยเพิ่มเติมเกี่ยวกับเทคนิคการตรวจสอบ "ห่วงโซ่ความคิด" ของโมเดล AI

Báo Dân tríBáo Dân trí31/07/2025

ถือเป็นโอกาสอันเปราะบางแต่สำคัญในการสร้างความมั่นใจในความปลอดภัยในการประยุกต์ใช้ AI ในอนาคต โดยเฉพาะอย่างยิ่งเมื่อเวียดนามเพิ่งผ่านกฎหมายอุตสาหกรรม เทคโนโลยีดิจิทัล ซึ่งมีกฎระเบียบอย่างละเอียดเกี่ยวกับการจัดการปัญญาประดิษฐ์ (AI)

“หน้าต่างแห่งโอกาส” กำลังแคบลง

ในเอกสารร่วมล่าสุด นักวิจัยของ OpenAI เตือนว่าความสามารถของ AI ในการติดตาม "ความคิด" อาจหายไปหากไม่มีการวิจัยที่มุ่งเน้น Bowen Baker นักวิจัยของ OpenAI กล่าว

สิ่งนี้มีความสำคัญอย่างยิ่ง เนื่องจากโมเดล AI มีประสิทธิภาพเพิ่มมากขึ้นและมีศักยภาพที่จะส่งผลกระทบร้ายแรงต่อสังคม

คุณลักษณะสำคัญของโมเดล AI ที่ใช้เหตุผล เช่น o-3 ของ OpenAI และ R1 ของ DeepSeek คือ “ห่วงโซ่แห่งความคิด” ( CoT) ซึ่งเป็นกระบวนการที่ AI แสดงขั้นตอนการใช้เหตุผลในภาษาธรรมชาติ คล้ายกับวิธีที่มนุษย์เขียนขั้นตอนต่างๆ ของโจทย์คณิตศาสตร์ลงบนกระดาษร่าง

ความสามารถนี้ช่วยให้เรามองเห็นภาพคร่าวๆ ได้ว่า AI ตัดสินใจอย่างไร

นี่ถือเป็นช่วงเวลาอันหายากแห่งความสามัคคีระหว่างผู้นำในอุตสาหกรรม AI จำนวนมากเพื่อผลักดันการวิจัยด้านความปลอดภัยของ AI

เรื่องนี้มีความเกี่ยวข้องอย่างยิ่งเมื่อพิจารณาถึงการแข่งขันที่ดุเดือดระหว่างบริษัทเทคโนโลยีในการพัฒนา AI บุคคลสำคัญที่ลงนามในรายงานฉบับนี้ ได้แก่ มาร์ค เฉิน ผู้อำนวยการฝ่ายวิจัยของ OpenAI, อิลยา ซัตสเคเวอร์ ซีอีโอของ Safe Superintelligence, เจฟฟรีย์ ฮินตัน ผู้ได้รับรางวัลโนเบล, เชน เลกก์ ผู้ร่วมก่อตั้ง Google DeepMind และแดน เฮนดริกส์ ที่ปรึกษาด้านความปลอดภัยของ xAI

การมีส่วนร่วมของชื่อชั้นนำเหล่านี้แสดงให้เห็นถึงความสำคัญของปัญหา

นอกจากนี้ ตามการประเมินของนายโบเวน เบเกอร์ “เราอยู่ในช่วงเวลาสำคัญที่มีสิ่งที่เรียกว่า ‘ห่วงโซ่ความคิด’ ใหม่ ซึ่งอาจจะหายไปในอีกไม่กี่ปีข้างหน้าหากผู้คนไม่ให้ความสำคัญกับมันจริงๆ”

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 1

เหตุใดการติดตาม “ความคิด AI” จึงมีความสำคัญ?

ระบบ AI ในปัจจุบันมักถูกมองว่าเป็น "กล่องดำ" นั่นคือ เราทราบข้อมูลอินพุตและเอาต์พุต แต่ไม่เข้าใจกระบวนการตัดสินใจภายใน

สิ่งนี้จะกลายเป็นอันตรายเมื่อนำ AI ไปใช้ในสาขาที่สำคัญ เช่น การดูแลสุขภาพ การเงิน และความมั่นคงแห่งชาติ

การตรวจสอบ CoT เป็นระบบอัตโนมัติที่อ่านข้อมูลห่วงโซ่ทางจิตของแบบจำลองทางจิตและข้อมูลที่เกี่ยวข้องอื่นๆ เพื่อตรวจจับการโต้ตอบที่น่าสงสัยหรืออาจเป็นอันตราย แม้จะไม่ใช่โซลูชันที่สมบูรณ์แบบ แต่สามารถเป็นชั้นป้องกันความปลอดภัยอันทรงคุณค่าได้

การวิจัยจาก OpenAI แสดงให้เห็นว่าโมเดล AI มักจะระบุเจตนาในลำดับความคิดอย่างชัดเจนมาก

ตัวอย่างเช่น พวกเขามักจะระบุอย่างชัดเจนมากเกี่ยวกับแผนการที่จะทำลายภารกิจเมื่อพวกเขาคิดว่า "แฮ็กกันเถอะ" ซึ่งแสดงให้เห็นถึงความสามารถของ AI ในการตรวจสอบและตรวจจับพฤติกรรมที่ไม่เหมาะสม

“มาแฮ็กกันเถอะ” คือวลีที่โมเดล AI มักจะ “คิด” เมื่อ “พวกเขา” ตั้งใจที่จะทำลายหรือหลบเลี่ยงกฎเกณฑ์ในระหว่างการปฏิบัติงาน

ความจริงที่ว่า AI แสดงเจตนา "การแฮ็ก" ในกระบวนการคิด ชี้ให้เห็นว่าเราสามารถตรวจจับพฤติกรรม AI ที่ไม่ดีได้ก่อนที่จะเกิดขึ้น นี่คือเหตุผลที่การตรวจสอบกระบวนการคิดจึงมีความสำคัญ

กล่าวอีกนัยหนึ่ง “ให้เราแฮ็ก” เป็นเหมือน “สัญญาณเตือน” เพื่อให้มนุษย์รู้ว่า AI กำลังจะทำอะไรผิด

เวียดนามและกฎหมายเกี่ยวกับ AI

ในความเป็นจริง เวียดนามได้ก้าวหน้าอย่างสำคัญในการสร้างกรอบทางกฎหมายสำหรับ AI

เมื่อวันที่ 14 มิถุนายน รัฐสภา เวียดนามได้ผ่านกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัล ซึ่งบทที่ 4 มีระเบียบข้อบังคับโดยละเอียดเกี่ยวกับปัญญาประดิษฐ์ ซึ่งถือเป็นกรอบกฎหมายด้านปัญญาประดิษฐ์ที่ครอบคลุมที่สุดแห่งหนึ่งในเอเชียตะวันออกเฉียงใต้ในปัจจุบัน

มาตรา 41 ของกฎหมายกำหนดหลักการพื้นฐานสำหรับการพัฒนา การจัดหา และการใช้งาน AI ในเวียดนาม

โดยเฉพาะอย่างยิ่ง ข้อ b ข้อ 1 กำหนดไว้ว่า: “ให้แน่ใจว่ามีความโปร่งใส ความรับผิดชอบ ความสามารถในการอธิบายได้ ให้แน่ใจว่าจะไม่เกินการควบคุมของมนุษย์”

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 2

รัฐสภาผ่านร่างกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัล (ภาพ: Nhat Bac)

นี่คือหลักการที่นักวิทยาศาสตร์นานาชาติเรียกร้องเมื่อหารือเกี่ยวกับการเฝ้าระวังห่วงโซ่ AI

นอกจากนี้ ข้อ d ข้อ 1 ข้อ 41 ยังกำหนดว่า “ต้องรับประกันความสามารถในการควบคุมอัลกอริทึมและแบบจำลองปัญญาประดิษฐ์” ซึ่งสอดคล้องกับเจตนารมณ์ของการกำกับดูแล CoT ที่ผู้เชี่ยวชาญระหว่างประเทศเสนอไว้โดยสมบูรณ์

ที่สำคัญกว่านั้น มาตรา 41 วรรค 1 ข้อ a ยังกำหนดมาตรฐานทางจริยธรรมขั้นสูงเมื่อระบุว่า AI จะต้อง "ให้บริการความเจริญรุ่งเรืองและความสุขของมนุษย์ โดยมีผู้คนเป็นศูนย์กลาง"

ซึ่งหมายความว่าการตรวจสอบห่วงโซ่ความคิดของ AI ไม่ใช่เพียงข้อกำหนดทางเทคนิคเท่านั้น แต่ยังเป็นภาระผูกพันทางจริยธรรมอีกด้วย โดยต้องแน่ใจว่า AI มุ่งเน้นไปที่ประโยชน์ของมนุษย์เสมอ ไม่ใช่เป้าหมายของเครื่องจักรเอง

จำแนกและจัดการ AI ตามระดับความเสี่ยง

กฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัลของเวียดนามได้ก้าวไปอีกขั้นด้วยการแบ่งประเภท AI ออกเป็นกลุ่มความเสี่ยงต่างๆ โดยมีคำจำกัดความที่ชัดเจนและเป็นวิทยาศาสตร์

มาตรา 43 กำหนดนิยามของ “ระบบปัญญาประดิษฐ์ที่มีความเสี่ยงสูง” ว่าเป็นระบบที่อาจก่อให้เกิดความเสี่ยงร้ายแรงหรือเป็นอันตรายต่อสุขภาพของมนุษย์ สิทธิมนุษยชน และความสงบเรียบร้อยของประชาชน

ที่น่าสนใจคือ พระราชบัญญัติดังกล่าวมีข้อยกเว้นเฉพาะสำหรับ AI ที่มีความเสี่ยงสูง ซึ่งรวมถึงระบบ “ที่มุ่งหมายเพื่อช่วยให้มนุษย์ปรับปรุงผลลัพธ์ในการทำงานให้เหมาะสมที่สุด” และ “ไม่ได้มุ่งหมายที่จะแทนที่การตัดสินใจของมนุษย์”

สิ่งนี้แสดงถึงความคิดที่สมดุลระหว่างการส่งเสริมนวัตกรรมและการประกันความปลอดภัย

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 3

การจำแนก AI ตามระดับความเสี่ยงจะช่วยสร้างระบบการตรวจสอบแบบหลายชั้น (ภาพประกอบ: LinkedIn)

โดยเฉพาะอย่างยิ่ง การแยกแยะระหว่าง “AI ที่มีความเสี่ยงสูง” และ “AI ที่มีผลกระทบสูง” (ระบบที่ใช้เพื่อวัตถุประสงค์หลายประการและมีผู้ใช้จำนวนมาก) แสดงให้เห็นถึงความแตกต่างในแนวทาง

ถือเป็นการจำแนกประเภทที่มีความก้าวหน้ามากกว่าพระราชบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรป (EU) ซึ่งไม่เพียงพิจารณาถึงระดับความเสี่ยงเท่านั้น แต่ยังรวมถึงขนาดและขอบเขตของผลกระทบด้วย

การแบ่งประเภทนี้จะช่วยสร้างระบบการกำกับดูแลแบบหลายชั้น ซึ่งการกำกับดูแลแบบลำดับชั้นจะมีความสำคัญอย่างยิ่งสำหรับระบบ AI ที่มีความเสี่ยงสูงและมีผลกระทบสูง

แพลตฟอร์มสำหรับการเฝ้าระวัง AI

จุดเด่นและจุดบุกเบิกประการหนึ่งของกฎหมายอุตสาหกรรมและเทคโนโลยีดิจิทัลของเวียดนามคือข้อกำหนดเกี่ยวกับความโปร่งใสและเครื่องหมายประจำตัว

มาตรา 44 กำหนดให้ระบบ AI ที่โต้ตอบกับมนุษย์โดยตรงต้องแจ้งให้ผู้ใช้ทราบว่าตนกำลังโต้ตอบกับระบบ AI ขณะเดียวกัน ผลิตภัณฑ์ที่สร้างโดย AI ต้องมีเครื่องหมายประจำตัว

สิ่งนี้มีความสำคัญอย่างยิ่งต่อการนำระบบตรวจสอบ CoT มาใช้ เมื่อผู้ใช้รู้ว่าตนเองกำลังโต้ตอบกับ AI พวกเขาจะมีสิทธิ์เรียกร้องคำอธิบายเกี่ยวกับกระบวนการตัดสินใจ ซึ่งสร้างแรงกดดันเชิงบวกให้นักพัฒนา AI ดูแลรักษาความสามารถในการตรวจสอบกระบวนการคิดของ AI

โดยเฉพาะอย่างยิ่งการที่กระทรวงวิทยาศาสตร์และเทคโนโลยีได้รับมอบหมายให้รับผิดชอบในการ "ออกรายชื่อผลิตภัณฑ์เทคโนโลยีดิจิทัลที่สร้างด้วยปัญญาประดิษฐ์" แสดงให้เห็นถึงการบริหารจัดการเชิงรุก

นี่ถือเป็นความแตกต่างที่สำคัญจากประเทศอื่นๆ หลายแห่ง ซึ่งกฎระเบียบด้าน AI มักจะทั่วไปกว่า

ยิ่งไปกว่านั้น การกำหนดให้ต้องมีตัวระบุ “เพื่อให้ผู้ใช้หรือเครื่องจักรจดจำได้” ถือเป็นวิสัยทัศน์ของระบบนิเวศ AI ที่สามารถดูแลตัวเองได้ ซึ่งสอดคล้องกับแนวคิดของการเฝ้าระวังแบบห่วงโซ่ภาพอัตโนมัติ

รูปแบบการบริหารจัดการแบบครอบคลุม

มาตรา 45 ของกฎหมายข้างต้นแสดงให้เห็นถึงปรัชญาการบริหารจัดการแบบก้าวหน้าด้วยการกำหนดความรับผิดชอบของกลุ่มวิชาทั้งสามอย่างชัดเจนตามวงจรชีวิตผลิตภัณฑ์ AI ได้แก่ กลุ่มวิชาพัฒนา กลุ่มวิชาจัดหา และกลุ่มวิชานำระบบ AI ไปใช้

สิ่งนี้จะสร้างระบบความรับผิดชอบแบบครบวงจรที่ราบรื่น ช่วยให้มั่นใจได้ว่าการกำกับดูแล AI ไม่ใช่ความรับผิดชอบของฝ่ายเดียวเท่านั้น

ที่น่าสังเกตคือความแตกต่างอันละเอียดอ่อนระหว่างการ "พัฒนา" และการ "จัดหา" AI โดยนักพัฒนาคือผู้ที่ "ค้นคว้าและพัฒนา" ในขณะที่ผู้ให้บริการคือผู้ที่นำ AI ออกสู่ตลาดภายใต้ชื่อแบรนด์

ซึ่งหมายความว่าแม้ว่าบริษัทจะเพียงแค่สร้างแบรนด์ใหม่ให้กับโมเดล AI ที่มีอยู่แล้ว บริษัทก็ยังต้องรับผิดชอบต่อความโปร่งใสและความสามารถในการอธิบาย

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 4

สิ่งที่น่าสนใจเป็นพิเศษที่นี่คือกฎหมายกำหนดความรับผิดชอบที่แตกต่างกันให้กับหน่วยงานต่างๆ

ผู้พัฒนาจะต้องปฏิบัติตามหลักการทั้งหมด ผู้ให้บริการจะต้องรับผิดชอบเพิ่มเติมสำหรับการระบุและการจัดการความเสี่ยงสูง และผู้ใช้จะได้รับการ "ยกเว้น" จากความรับผิดชอบบางส่วน แต่ยังคงต้องมั่นใจในความโปร่งใสและการควบคุมความเสี่ยง

โมเดลนี้สร้าง "ห่วงโซ่แห่งความรับผิดชอบ" โดยที่แต่ละลิงก์มีแรงจูงใจที่จะรักษาการกำกับดูแลห่วงโซ่ความคิดของ AI เนื่องจากทุกคนต้องรับผิดชอบต่อผู้ใช้ปลายทาง

ความท้าทายในการรักษาความสามารถในการเฝ้าระวัง

อย่างไรก็ตาม ความสามารถในการตรวจสอบห่วงโซ่ความคิดของ AI อาจยังคงเปราะบางและเสี่ยงต่ออันตราย สถาปัตยกรรม AI ใหม่ ๆ อาจก่อให้เกิดภัยคุกคามอื่น ๆ ได้เช่นกัน

นักวิจัยจำนวนมากกำลังพัฒนาระบบการใช้เหตุผลในพื้นที่คณิตศาสตร์ต่อเนื่อง แทนที่จะเป็นคำศัพท์ที่แยกจากกัน ซึ่งอาจขจัดความจำเป็นในการใช้ภาษาในการคิดได้อย่างสิ้นเชิง

ยิ่งไปกว่านั้น AI ยังสามารถ "กรอง" ได้ ซึ่งหมายความว่า มันจะแสดงเฉพาะความคิดเชิงบวกของมนุษย์เพื่อให้ได้รับการชื่นชม ในขณะที่ซ่อนเจตนาที่แท้จริงไว้โดยเจตนา

สิ่งที่เป็นอันตรายในที่นี้คือ เมื่อ AI ตระหนักว่ากำลังถูกตรวจสอบ มันอาจเรียนรู้ที่จะซ่อนความคิดที่แท้จริงของมัน

ในบริบทนี้ บทบัญญัติว่าด้วย “การควบคุมความเสี่ยงตลอดวงจรชีวิตของระบบปัญญาประดิษฐ์” ในข้อ e วรรค 1 มาตรา 41 ของกฎหมายเวียดนามจึงมีความสำคัญอย่างยิ่ง จำเป็นต้องมีกลไกการติดตามตรวจสอบอย่างต่อเนื่อง ไม่ใช่แค่เฉพาะในช่วงเวลาที่ใช้งานเท่านั้น

ผลกระทบต่ออนาคตของการพัฒนา AI

การตรวจสอบห่วงโซ่แห่งความคิดอาจกลายเป็นเครื่องมือสำคัญเพื่อให้แน่ใจว่า AI ทำงานในรูปแบบที่เป็นประโยชน์ต่อมนุษย์

หากโมเดลยังคงใช้เหตุผลในภาษาธรรมชาติ และหากพฤติกรรมที่ก่อให้เกิดความเสี่ยงร้ายแรงที่สุดต้องใช้การใช้เหตุผลอย่างกว้างขวาง สิ่งนี้จะช่วยให้สามารถตรวจจับการประพฤติมิชอบที่ร้ายแรงได้อย่างน่าเชื่อถือ

สำหรับเวียดนาม การใช้เทคนิคการติดตาม CoT จะช่วยให้บังคับใช้บทบัญญัติของกฎหมายได้อย่างมีประสิทธิภาพ

ตัวอย่างเช่น ข้อกำหนดเรื่อง “ความสามารถในการอธิบาย” ในมาตรา 41 จะบรรลุผลได้ง่ายขึ้นหากกระบวนการคิดของ AI สามารถเข้าถึงได้ เช่นเดียวกัน “การควบคุมอัลกอริทึมและแบบจำลองปัญญาประดิษฐ์” ก็จะเป็นไปได้มากขึ้น

การนำระบบติดตาม AI มาใช้ในเวียดนามจะต้องเผชิญกับความท้าทายหลายประการ ประการแรกคือปัญหาด้านทรัพยากรบุคคล ซึ่งก็คือการขาดแคลนผู้เชี่ยวชาญด้าน AI ที่สามารถพัฒนาและดำเนินการระบบติดตามได้

สิ่งนี้ต้องใช้การลงทุนอย่างหนักในการฝึกอบรมและดึงดูดผู้มีความสามารถ

ทิศทางสู่อนาคต

นักวิจัยเรียกร้องให้นักพัฒนาโมเดล AI ชั้นนำทำการวิจัยว่าอะไรที่ทำให้ CoT "ตรวจสอบได้" ซึ่งเป็นปัจจัยที่สามารถเพิ่มหรือลดความโปร่งใสเกี่ยวกับวิธีการใช้โมเดล AI และหาคำตอบในเร็วๆ นี้

โอกาสในการตรวจสอบ "ความคิด" ของ AI อาจเป็นหน้าต่างบานสุดท้ายของเราในการรักษาการควบคุมระบบปัญญาประดิษฐ์ที่มีประสิทธิภาพเพิ่มมากขึ้นในปัจจุบัน

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 5

สำหรับเวียดนาม การมีกรอบกฎหมายที่ครอบคลุมเกี่ยวกับ AI ผ่านกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัลถือเป็นข้อได้เปรียบอย่างมาก กฎระเบียบเกี่ยวกับความโปร่งใส การควบคุมอัลกอริทึม และการจำแนกความเสี่ยง ได้สร้างรากฐานทางกฎหมายที่แข็งแกร่งสำหรับการประยุกต์ใช้เทคนิคการตรวจสอบห่วงโซ่ความคิดด้าน AI

การผสมผสานการวิจัยระดับนานาชาติที่ล้ำสมัยและกรอบกฎหมายภายในประเทศที่ก้าวหน้าจะช่วยให้เวียดนามไม่เพียงแต่พัฒนา AI อย่างปลอดภัยเท่านั้น แต่ยังกลายเป็นต้นแบบให้กับประเทศอื่นๆ ในภูมิภาคอีกด้วย

สอดคล้องกับเป้าหมายที่ต้องการเปลี่ยนเวียดนามให้เป็น “ศูนย์กลางเทคโนโลยีดิจิทัลระดับภูมิภาคและระดับโลก” ตามที่กำหนดไว้ในกลยุทธ์การพัฒนาระดับชาติ

ด้วยรากฐานทางกฎหมายที่มีอยู่ เวียดนามจำเป็นต้องเร่งพัฒนางานวิจัยและการประยุกต์ใช้จริงเพื่อติดตามห่วงโซ่ความคิดด้าน AI การทำเช่นนี้เท่านั้นที่จะทำให้มั่นใจได้ว่า AI จะทำหน้าที่ “ความเจริญรุ่งเรืองและความสุขของมนุษย์” ตามที่เจตนารมณ์ของกฎหมายอุตสาหกรรมเทคโนโลยีดิจิทัลได้กำหนดไว้

ที่มา: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm


การแสดงความคิดเห็น (0)

No data
No data

หัวข้อเดียวกัน

หมวดหมู่เดียวกัน

จี-ดราก้อนระเบิดความมันส์กับผู้ชมระหว่างการแสดงของเขาในเวียดนาม
แฟนคลับสาวสวมชุดแต่งงานไปคอนเสิร์ต G-Dragon ที่ฮึงเยน
ตื่นตาตื่นใจกับความงามของหมู่บ้านโลโลไชในฤดูดอกบัควีท
ข้าวเมตรีกำลังลุกเป็นไฟ คึกคักด้วยจังหวะสากตำข้าวเพื่อเก็บเกี่ยวผลผลิตรอบใหม่

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

ภาพระยะใกล้ของกิ้งก่าจระเข้ในเวียดนาม ซึ่งมีมาตั้งแต่ยุคไดโนเสาร์

เหตุการณ์ปัจจุบัน

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์