ปรับปรุงข้อมูล : 31/03/2024 05:42:42 น.
จากโพสต์บล็อกของ OpenAI ที่แบ่งปันผลการทดสอบ "Voice Engine" ในขนาดเล็ก พบว่าเครื่องมือนี้สามารถโคลนเสียงของใครก็ได้โดยอิงจากตัวอย่างเสียงความยาว 15 วินาที
ภาพ: OpenAI
OpenAI เพิ่งเปิดตัวเครื่องมือโคลนเสียง แต่จะมีการควบคุมอย่างเข้มงวดจนกว่าจะมีมาตรการป้องกันเพื่อป้องกันไม่ให้เสียงปลอมทำให้ผู้ฟังเข้าใจผิด
OpenAI ยอมรับว่าการสร้างเสียงก่อให้เกิดความเสี่ยงร้ายแรง โดยเฉพาะในปีการเลือกตั้ง อย่างไรก็ตาม บริษัทกล่าวว่ากำลังทำงานร่วมกับพันธมิตรในประเทศและต่างประเทศจากภาครัฐ สื่อมวลชน บันเทิง การศึกษา ภาคประชาสังคม และภาคส่วนอื่นๆ เพื่อรวบรวมข้อเสนอแนะเพื่อสร้างและพัฒนาเครื่องมือนี้อย่างปลอดภัย
OpenAI กล่าวว่าได้ดำเนินการตามมาตรการความปลอดภัยชุดหนึ่ง รวมถึงการทำเครื่องหมายแหล่งที่มาของเสียงที่สร้างโดย Voice Engine และการตรวจสอบวิธีการใช้งานเครื่องมืออย่างจริงจัง
นักวิจัยด้านข้อมูลเท็จมีความกังวลเกี่ยวกับความเสี่ยงจากการละเมิดแอปที่ขับเคลื่อนด้วย AI อย่างร้ายแรงในปีการเลือกตั้งที่สำคัญ เนื่องจากเครื่องมือโคลนเสียงมีราคาถูกลง ใช้งานง่ายขึ้น และติดตามได้ยาก
ตัวอย่างหนึ่งคือการโทรที่สร้างโดย AI ซึ่งเป็นผลงานของกลุ่มล็อบบี้ยิสต์ของนายดีน ฟิลลิปส์ สมาชิกรัฐสภาแห่งมินนิโซตา ซึ่งฟังดูเหมือนประธานาธิบดีโจ ไบเดนกำลังเรียกร้องให้ผู้คนไม่ลงคะแนนเสียงในการเลือกตั้งขั้นต้นของรัฐนิวแฮมป์เชียร์ในเดือนมกราคม พ.ศ. 2567
เหตุการณ์ดังกล่าวทำให้เกิดความกังวลในหมู่ผู้เชี่ยวชาญเกี่ยวกับกระแสข้อมูลปลอม (เสียงหรือ วิดีโอ ปลอม) ที่เกิดจาก AI ในการเลือกตั้งประธานาธิบดีสหรัฐฯ ในปี 2024 และการเลือกตั้งสำคัญอื่นๆ ทั่วโลกในปีนี้
ตาม VNA/NDO
แหล่งที่มา
การแสดงความคิดเห็น (0)