
ออสเตรเลียพัฒนาเทคโนโลยี AI เพื่อตรวจจับเสียง Deepfake ด้วยความแม่นยำเกือบสมบูรณ์แบบ - ภาพประกอบ: REUTERS
นักวิทยาศาสตร์ จากองค์การวิจัยอุตสาหกรรมและวิทยาศาสตร์แห่งเครือจักรภพ (CSIRO) มหาวิทยาลัย Federation Australia และมหาวิทยาลัย RMIT ประสบความสำเร็จในการพัฒนาวิธีการตรวจจับเสียงดีปเฟกด้วยความแม่นยำและความสามารถในการปรับตัวที่โดดเด่น
เทคนิคใหม่ที่เรียกว่า Rehearsal with Auxiliary-Informed Sampling (RAIS) ได้รับการออกแบบมาโดยเฉพาะเพื่อตรวจจับเสียง deepfake ซึ่งเป็นภัยคุกคามที่เพิ่มขึ้นในอาชญากรรมทางไซเบอร์ โดยมีความเสี่ยงต่างๆ มากมาย เช่น การหลีกเลี่ยงระบบการตรวจสอบข้อมูลชีวภาพของเสียง การปลอมแปลงตัวตน และการเผยแพร่ข้อมูลที่ผิดพลาด CSIRO กล่าว
เทคนิค RAIS ไม่เพียงแต่กำหนดความถูกต้องของแทร็กเสียงเท่านั้น แต่ยังช่วยให้แน่ใจว่ารักษาประสิทธิภาพการทำงานสูงไว้ได้ แม้ว่าการโจมตีแบบปลอมแปลงจะยังคงพัฒนาและเปลี่ยนแปลงต่อไปก็ตาม
ดร. คริสเตน มัวร์ ผู้เขียนร่วมในการศึกษาวิจัยที่ Data61 ซึ่งเป็นหน่วยงานข้อมูลและดิจิทัลของ CSIRO เปิดเผยว่า เป้าหมายของทีมคือการพัฒนาระบบตรวจจับที่สามารถอัปเดตตัวอย่างดีปเฟกใหม่ๆ ได้โดยไม่ต้องฝึกโมเดลใหม่ตั้งแต่ต้น เพื่อหลีกเลี่ยงปรากฏการณ์ที่โมเดลลืมข้อมูลเก่าเมื่อปรับแต่งอย่างละเอียด
RAIS แก้ปัญหานี้โดยเลือกและจัดเก็บชุด deepfake ก่อนหน้าจำนวนเล็กน้อยและหลากหลายโดยอัตโนมัติ รวมถึงฟีเจอร์เสียงที่ซ่อนอยู่ เพื่อช่วยให้ AI เรียนรู้ประเภท deepfake ใหม่ๆ ในขณะที่ยังคงความรู้เกี่ยวกับประเภทเก่าๆ ไว้ มัวร์อธิบาย
โดยเฉพาะอย่างยิ่ง RAIS ทำงานบนพื้นฐานของกระบวนการคัดเลือกอัจฉริยะที่สร้าง “ป้ายกำกับเสริม” สำหรับตัวอย่างเสียงแต่ละตัวอย่าง การรวมป้ายกำกับเสริมเหล่านี้เข้าด้วยกัน แทนที่จะติดป้ายกำกับว่า “จริง” หรือ “ปลอม” ช่วยให้มั่นใจได้ว่าชุดข้อมูลการฝึกจะมีความสมบูรณ์และหลากหลาย กลไกนี้ช่วยปรับปรุงความสามารถของระบบในการจดจำและปรับตัวตามกาลเวลาได้อย่างมีนัยสำคัญ
จากข้อมูลของ CSIRO ในระหว่างการทดสอบ RAIS มีประสิทธิภาพเหนือกว่าวิธีอื่นๆ โดยมีอัตราความผิดพลาดเฉลี่ย 1.95% ในการทดสอบต่อเนื่อง 5 ครั้ง ซอร์สโค้ดของเทคนิคนี้เผยแพร่บน GitHub ซึ่งเป็นเว็บไซต์ที่เชี่ยวชาญด้านการจัดเก็บซอร์สโค้ดออนไลน์บนแพลตฟอร์ม Git
ที่มา: https://tuoitre.vn/uc-phat-trien-cong-cu-vach-tran-giong-noi-gia-bang-deepfake-20251112092232468.htm






การแสดงความคิดเห็น (0)