การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) ทำให้เกิดความกังวลว่าปัญญาประดิษฐ์กำลังพัฒนาเร็วกว่าที่มนุษย์จะเข้าใจผลกระทบของมันได้
ภาพ: ST
การใช้ AI ทั่วไปเพิ่มขึ้นอย่างมากหลังจากการเกิดขึ้นของเครื่องมืออย่าง ChatGPT แม้ว่าเครื่องมือเหล่านี้จะมีประโยชน์มากมาย แต่ก็อาจถูกนำไปใช้ในทางที่ผิดในทางที่ผิดได้เช่นกัน
เพื่อจัดการความเสี่ยงนี้ สหรัฐอเมริกาและประเทศอื่นๆ อีกหลายประเทศได้ทำข้อตกลงกับบริษัทเจ็ดแห่ง ได้แก่ Amazon, Anthropic, Google, Inflection, Meta, Microsoft และ OpenAI เพื่อมุ่งมั่นในการปฏิบัติที่ปลอดภัยในการพัฒนาเทคโนโลยี AI
ประกาศของทำเนียบขาวมาพร้อมกับศัพท์เฉพาะของตัวเองที่คนทั่วไปอาจไม่คุ้นเคย เช่น “red teaming” และ “watermarking” ต่อไปนี้คือคำศัพท์ที่เกี่ยวข้องกับ AI เจ็ดคำที่ควรระวัง
การเรียนรู้ของเครื่องจักร
สาขาหนึ่งของ AI นี้มีเป้าหมายเพื่อฝึกเครื่องจักรให้ทำงานเฉพาะอย่างแม่นยำโดยการระบุรูปแบบ จากนั้นเครื่องจักรจะสามารถคาดการณ์โดยอิงจากข้อมูลนั้นได้
การเรียนรู้เชิงลึก
งาน AI ที่สร้างสรรค์มักอาศัยการเรียนรู้เชิงลึก ซึ่งเป็นวิธีการที่เกี่ยวข้องกับการฝึกคอมพิวเตอร์โดยใช้เครือข่ายประสาท ซึ่งเป็นชุดอัลกอริทึมที่ออกแบบมาเพื่อเลียนแบบเซลล์ประสาทในสมองมนุษย์ เพื่อสร้างการเชื่อมโยงที่ซับซ้อนระหว่างรูปแบบต่างๆ เพื่อสร้างข้อความ รูปภาพ หรือเนื้อหาอื่นๆ
เนื่องจากโมเดลการเรียนรู้เชิงลึกมีชั้นของเซลล์ประสาทหลายชั้น จึงสามารถเรียนรู้รูปแบบที่ซับซ้อนได้มากกว่าการเรียนรู้ของเครื่องจักรแบบดั้งเดิม
แบบจำลองภาษาขนาดใหญ่
แบบจำลองภาษาขนาดใหญ่ (LLM) ได้รับการฝึกฝนจากข้อมูลจำนวนมหาศาล และมีวัตถุประสงค์เพื่อสร้างแบบจำลองภาษาหรือทำนายคำถัดไปในลำดับ แบบจำลองภาษาขนาดใหญ่ เช่น ChatGPT และ Google Bard สามารถใช้สำหรับงานต่างๆ รวมถึงการสรุป การแปล และการสนทนา
อัลกอริทึม
ชุดคำสั่งหรือกฎที่ช่วยให้เครื่องจักรสามารถคาดการณ์ แก้ปัญหา หรือทำงานให้สำเร็จได้ อัลกอริทึมสามารถให้คำแนะนำการซื้อสินค้า และช่วยในการตรวจจับการฉ้อโกงและฟังก์ชันแชทบริการลูกค้า
อคติ
เนื่องจาก AI ได้รับการฝึกฝนจากชุดข้อมูลขนาดใหญ่ จึงสามารถรวมข้อมูลที่เป็นอันตราย เช่น คำพูดแสดงความเกลียดชัง ไว้ในข้อมูลได้ นอกจากนี้ การเหยียดเชื้อชาติและการเหยียดเพศก็อาจปรากฏในชุดข้อมูลที่ใช้ในการฝึกฝน AI ซึ่งนำไปสู่เนื้อหาที่สร้างความเข้าใจผิด
บริษัท AI ตกลงที่จะเจาะลึกมากขึ้นถึงวิธีการหลีกเลี่ยงอคติและการเลือกปฏิบัติที่เป็นอันตรายในระบบ AI
ทีมสีแดง
หนึ่งในพันธสัญญาที่บริษัทต่างๆ มีต่อทำเนียบขาวคือการดำเนินการ "ทีมแดง" ทั้งภายในและภายนอกโมเดลและระบบ AI
“Red teaming” เกี่ยวข้องกับการทดสอบแบบจำลองเพื่อค้นหาช่องโหว่ที่อาจเกิดขึ้น คำนี้มาจากการฝึก ทหาร ที่ทีมจำลองการกระทำของผู้โจมตีเพื่อวางกลยุทธ์
วิธีนี้ใช้กันอย่างแพร่หลายในการทดสอบช่องโหว่ด้านความปลอดภัยในระบบต่างๆ เช่น แพลตฟอร์มคลาวด์คอมพิวติ้งจากบริษัทต่างๆ เช่น Microsoft และ Google
ลายน้ำ
ลายน้ำเป็นวิธีหนึ่งในการบอกว่าเสียงหรือภาพนั้นถูกสร้างขึ้นโดย AI หรือไม่ การตรวจสอบข้อเท็จจริงเพื่อยืนยันอาจรวมถึงข้อมูลเกี่ยวกับผู้สร้าง รวมถึงวิธีการและเวลาที่สร้างหรือแก้ไข
ยกตัวอย่างเช่น Microsoft ได้ให้คำมั่นสัญญาว่าจะใส่ลายน้ำบนภาพที่สร้างด้วยเครื่องมือ AI ของตน บริษัทต่างๆ ยังได้ให้คำมั่นกับทำเนียบขาวว่าจะ "ใส่ลายน้ำ" บนภาพหรือบันทึกแหล่งที่มาของภาพ... เพื่อระบุว่าภาพเหล่านั้นสร้างขึ้นโดย AI
ลายน้ำยังถูกใช้กันอย่างแพร่หลายเพื่อติดตามการละเมิดทรัพย์สินทางปัญญา ลายน้ำสำหรับรูปภาพที่สร้างโดย AI อาจปรากฏเป็นสัญญาณรบกวนที่มองไม่เห็น เช่น การเปลี่ยนแปลงเล็กน้อยทุกๆ เจ็ดพิกเซล
อย่างไรก็ตาม การใส่ลายน้ำลงในข้อความที่สร้างโดย AI อาจมีความซับซ้อนมากกว่า และอาจต้องมีการปรับแต่งเทมเพลตคำเพื่อให้สามารถระบุได้ว่าเป็นเนื้อหาที่สร้างโดย AI
ฮวง ตัน (ตาม Poynter)
แหล่งที่มา
การแสดงความคิดเห็น (0)