การพัฒนาที่รวดเร็วอย่างไม่คาดคิดของ ChatGPT ซึ่งเป็นแชทบอทปัญญาประดิษฐ์ (AI) ที่มีฟังก์ชั่นเหนือกว่า ได้เปลี่ยนชีวิตมนุษย์ไปในระดับหนึ่ง โดยเฉพาะอย่างยิ่งในด้านวิธีการทำงาน อย่างไรก็ตาม ความเสี่ยงที่เกี่ยวข้องกับเทคโนโลยีนี้ได้สร้างความกังวลในหมู่หน่วยงานในหลายประเทศ โดยเฉพาะความกังวลเกี่ยวกับข้อมูลของผู้ใช้
ในบริบทที่โลก ยังขาดกรอบกฎหมายใหม่ที่แข็งแกร่งเพื่อจัดการ AI ได้อย่างมีประสิทธิภาพและรับประกันความน่าเชื่อถือสูงสำหรับผู้ใช้ หลายประเทศจึงได้เริ่มใช้มาตรการเพื่อควบคุมการใช้งาน ChatGPT และ AI โดยทั่วไปเพื่อลดความเสี่ยงที่เทคโนโลยีนี้ก่อขึ้น
หลายประเทศ “ดำเนินการ” ด้วย AI
อิตาลีอยู่แนวหน้าในการออกคำตัดสินใจแบน ChatGPT
เมื่อวันที่ 31 มีนาคม ทางการอิตาลีได้ออกคำสั่งแบนแอป ChatGPT เป็นการชั่วคราวเนื่องจากปัญหาความเป็นส่วนตัว และแอปดังกล่าวไม่ตรวจสอบผู้ใช้ที่มีอายุตั้งแต่ 13 ปีขึ้นไปตามที่อิตาลีกำหนด ในเวลาเดียวกัน อิตาลียังกล่าวอีกว่าจะเปิดการสอบสวนเกี่ยวกับวิธีการที่ OpenAI ใช้ข้อมูลผู้ใช้
ภายหลังจากอิตาลีแบน ChatGPT มีหลายประเทศได้ดำเนินการกับแอปดังกล่าว (ภาพ : รอยเตอร์)
สำนักงานคุ้มครองข้อมูลของอิตาลีได้กำหนดเส้นตายให้ OpenAI ซึ่งเป็นบริษัทที่สร้าง ChatGPT ดำเนินการตามข้อกำหนดด้านการคุ้มครองข้อมูลและความเป็นส่วนตัวภายในสิ้นเดือนเมษายน ก่อนที่จะกลับมาดำเนินการตามปกติในประเทศ
ทันทีหลังจากที่อิตาลีตัดสินใจ ประเทศต่างๆ มากมายเริ่ม "ตาม" ประเทศนี้ในการบล็อก ChatGPT เนื่องจากความกังวลเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของข้อมูล
หน่วยงานกำกับดูแลความเป็นส่วนตัวและความปลอดภัยของฝรั่งเศสและไอร์แลนด์ได้ติดต่อกับหน่วยงานที่เทียบเท่ากันในอิตาลีเพื่อสอบถามถึงพื้นฐานของการห้ามดังกล่าว CNIL ซึ่งเป็นหน่วยงานกำกับดูแลความเป็นส่วนตัวของฝรั่งเศส กล่าวเมื่อวันที่ 11 เมษายนว่า กำลังสืบสวนข้อร้องเรียนหลายกรณีเกี่ยวกับ ChatGPT
คณะกรรมการคุ้มครองข้อมูลของเยอรมนีกล่าวว่าเบอร์ลินมีแนวโน้มที่จะ "เดินตามรอยอิตาลี" ในการบล็อก ChatGPT
ที่น่าสังเกตคือ สำนักงานคุ้มครองข้อมูลยุโรป (EDPB) ได้จัดตั้งหน่วยงานเฉพาะกิจเพื่อดูแล ChatGPT เมื่อวันที่ 13 เมษายน โดยระบุว่า “ประเทศสมาชิก EDPB ได้หารือเกี่ยวกับการดำเนินการบังคับใช้กฎหมายล่าสุดที่ดำเนินการโดยสำนักงานคุ้มครองข้อมูลของอิตาลีต่อ OpenAI ที่เกี่ยวข้องกับบริการ ChatGPT สำนักงาน EDPB ตัดสินใจจัดตั้งหน่วยงานเฉพาะกิจเพื่อส่งเสริมความร่วมมือและแลกเปลี่ยนข้อมูลเกี่ยวกับการดำเนินการบังคับใช้กฎหมายที่อาจเกิดขึ้น”
นอกจากนี้ สมาชิกรัฐสภาสหภาพยุโรป (EU) กำลังหารือเกี่ยวกับกฎหมาย AI ของสหภาพยุโรป ซึ่งจะควบคุมทุกคนที่ให้บริการผลิตภัณฑ์หรือบริการโดยใช้ AI รวมถึงระบบที่สร้างเนื้อหา การคาดการณ์ คำแนะนำ หรือการตัดสินใจที่ส่งผลกระทบต่อสิ่งแวดล้อม สหภาพยุโรปยังเสนอให้จำแนกเครื่องมือ AI ต่าง ๆ ตามระดับความเสี่ยง ตั้งแต่ต่ำไปจนถึงยอมรับไม่ได้
หน่วยงานคุ้มครองข้อมูลของสเปน AEPD ประกาศกำลังดำเนินการสอบสวนเบื้องต้นเกี่ยวกับการละเมิดข้อมูลของ ChatGPT
ในออสเตรเลีย กระทรวงวิทยาศาสตร์และเทคโนโลยี ประกาศเมื่อวันที่ 12 เมษายน ว่ารัฐบาลได้ขอคำแนะนำจากหน่วยงานที่ปรึกษาด้านวิทยาศาสตร์เกี่ยวกับวิธีการตอบสนองต่อ AI และกำลังพิจารณาขั้นตอนต่อไป
การเคลื่อนไหวดังกล่าวทำให้เกิดคำถามว่า AI มีความปลอดภัยเพียงใด และ รัฐบาล สามารถทำอะไรได้บ้างเพื่อบรรเทาความเสี่ยงที่เกี่ยวข้อง รายงานเดือนมีนาคมของบริษัทที่ปรึกษา KPMG และสมาคมอุตสาหกรรมสารสนเทศออสเตรเลียพบว่าชาวออสเตรเลีย 2 ใน 3 คนกล่าวว่าไม่มีกฎหมายหรือข้อบังคับเพียงพอที่จะป้องกันไม่ให้มีการใช้ AI ในทางที่ผิด ขณะที่ผู้ตอบแบบสำรวจน้อยกว่าครึ่งเชื่อว่ามีการใช้ AI อย่างปลอดภัยในสถานที่ทำงาน
หลายประเทศได้เริ่มใช้มาตรการในการควบคุมเทคโนโลยี AI (ภาพ : รอยเตอร์)
ในสหราชอาณาจักร รัฐบาลกล่าวว่าตั้งใจที่จะแบ่งความรับผิดชอบในการควบคุม AI ออกเป็นสองส่วนระหว่างหน่วยงานด้านสิทธิมนุษยชน สุขภาพและความปลอดภัย และการแข่งขัน แทนที่จะจัดตั้งหน่วยงานกำกับดูแลขึ้นใหม่
เมื่อเร็วๆ นี้ ชัค ชูเมอร์ ผู้นำเสียงข้างมากในพรรคเดโมแครตในวุฒิสภาสหรัฐฯ ได้มีการร่างและออกกรอบการกำกับดูแลใหม่เกี่ยวกับ AI ที่สามารถป้องกันความเสียหายที่อาจเกิดหายนะต่อประเทศได้ ข้อเสนอของชูเมอร์จะต้องให้บริษัทต่างๆ อนุญาตให้ผู้เชี่ยวชาญอิสระตรวจสอบและทดสอบเทคโนโลยี AI ก่อนที่จะเผยแพร่หรืออัปเดต
ก่อนหน้านี้เมื่อวันที่ 11 เมษายน กระทรวงพาณิชย์สหรัฐฯ กล่าวว่ากำลังขอความคิดเห็นจากสาธารณชนเกี่ยวกับมาตรการรับผิดชอบด้าน AI
ในขณะเดียวกัน ศูนย์ปัญญาประดิษฐ์และนโยบายดิจิทัลในสหรัฐฯ ได้ขอให้คณะกรรมาธิการการพาณิชย์ปิดกั้นไม่ให้ OpenAI เผยแพร่ GPT-4 เวอร์ชันเชิงพาณิชย์ใหม่ โดยให้เหตุผลว่าเทคโนโลยีนี้ "มีความลำเอียง หลอกลวง และก่อให้เกิดความเสี่ยงต่อความเป็นส่วนตัวและความปลอดภัยสาธารณะ"
ขณะเดียวกันที่ประเทศญี่ปุ่น นายทาโร โคโนะ รัฐมนตรีว่าการกระทรวงการเปลี่ยนแปลงทางดิจิทัล กล่าวว่า เขาต้องการให้การประชุมรัฐมนตรีด้านดิจิทัลของกลุ่ม G7 ที่กำลังจะมีขึ้นในปลายเดือนเมษายนนี้ หารือเกี่ยวกับเทคโนโลยี AI รวมถึง ChatGPT และส่งมอบข้อความแบบบูรณาการของ G7
ล่าสุด จีนได้ประกาศมาตรการที่วางแผนไว้เพื่อควบคุมบริการ AI โดยระบุว่า บริษัทต่าง ๆ ที่จัดส่งเทคโนโลยี AI จะต้องส่งการประเมินความปลอดภัยให้กับหน่วยงานต่าง ๆ ก่อนเปิดตัวบริการดังกล่าวในตลาด
ผู้เชี่ยวชาญเตือนถึงอันตรายจาก AI
ผู้เชี่ยวชาญบางคนกล่าวว่า AI อาจนำไปสู่ “ภัยพิบัติระดับนิวเคลียร์” ได้ (ภาพ : รอยเตอร์)
ผลการสำรวจที่เผยแพร่โดยสถาบันปัญญาประดิษฐ์แห่งมหาวิทยาลัยสแตนฟอร์ดเมื่อต้นเดือนเมษายนพบว่านักวิจัย 36% เชื่อว่า AI อาจนำไปสู่ “หายนะระดับนิวเคลียร์” ซึ่งยิ่งตอกย้ำความกังวลที่มีอยู่เกี่ยวกับการพัฒนาอย่างรวดเร็วของเทคโนโลยีดังกล่าว
ในขณะเดียวกัน 73% ของ AI จะนำไปสู่ “การเปลี่ยนแปลงทางสังคมครั้งปฏิวัติ”
รายงานระบุว่า แม้ว่าศักยภาพของเทคโนโลยีเหล่านี้จะยังเกินจินตนาการเมื่อทศวรรษที่ผ่านมา แต่เทคโนโลยีเหล่านี้ก็ยังเป็นเพียงภาพลวงตา อคติ และเสี่ยงต่อการถูกใช้ประโยชน์เพื่อจุดประสงค์ที่ชั่วร้าย สิ่งนี้ทำให้เกิดความท้าทายทางจริยธรรมเมื่อผู้ใช้ใช้บริการดังกล่าว
รายงานยังระบุด้วยว่าจำนวน “เหตุการณ์และข้อโต้แย้ง” ที่เกี่ยวข้องกับ AI เพิ่มขึ้น 26 เท่าในช่วงทศวรรษที่ผ่านมา
เมื่อเดือนที่แล้ว มหาเศรษฐี Elon Musk และผู้ร่วมก่อตั้ง Apple Steve Wozniak เป็นหนึ่งในผู้เชี่ยวชาญด้านเทคโนโลยีหลายพันคนที่ลงนามในจดหมายเรียกร้องให้หยุดการฝึกอบรมระบบ AI ที่มีประสิทธิภาพมากกว่าแชทบอท GPT-4 ของ Open AI โดยระบุว่า "ระบบ AI ที่มีประสิทธิภาพควรได้รับการพัฒนาเมื่อเราเชื่อมั่นว่าผลกระทบจะดีและสามารถจัดการความเสี่ยงได้"
ยงกัง (รอยเตอร์, อัล จาซีรา, ABC)
แหล่งที่มา
การแสดงความคิดเห็น (0)