บริษัทเทคโนโลยียักษ์ใหญ่ OpenAI ยกย่องเครื่องมือแปลงคำพูดเป็นข้อความ Whisper ว่าเป็น AI ที่มี "ความแม่นยำและความทนทานเทียบเท่ามนุษย์" แต่ Whisper กลับมีข้อบกพร่องสำคัญประการหนึ่ง นั่นก็คือ มันสร้างข้อความและประโยคที่เป็นเท็จโดยสิ้นเชิง
ข้อความบางส่วนที่ AI สร้างขึ้น เรียกว่า "ภาพหลอน" ซึ่งอาจรวมถึงความคิดเห็นเกี่ยวกับเชื้อชาติ ภาษาที่รุนแรง และแม้แต่การรักษา ทางการแพทย์ ในจินตนาการ - ภาพ: AP
ผู้เชี่ยวชาญกล่าวว่าข้อความบางส่วนที่ AI สร้างขึ้นนั้นเรียกว่า "ภาพหลอน" ตามรายงานของ AP ซึ่งรวมถึงความคิดเห็นเกี่ยวกับเชื้อชาติ ภาษาที่รุนแรง และแม้แต่การรักษาทางการแพทย์ในจินตนาการ
อัตราการเกิด "ภาพลวงตา" สูงในข้อความที่สร้างโดย AI
ผู้เชี่ยวชาญมีความกังวลเป็นพิเศษเนื่องจาก Whisper ถูกใช้กันอย่างแพร่หลายในหลายอุตสาหกรรมทั่ว โลก ในการแปลและถอดเสียงบทสัมภาษณ์ สร้างข้อความในเทคโนโลยียอดนิยมสำหรับผู้บริโภค และสร้างคำบรรยายสำหรับวิดีโอ
ที่น่ากังวลยิ่งกว่านั้น คือ ศูนย์การแพทย์หลายแห่งกำลังใช้ Whisper ในการถ่ายโอนการให้คำปรึกษาระหว่างแพทย์และคนไข้ แม้ว่า OpenAI จะเตือนว่าไม่ควรใช้เครื่องมือนี้ในพื้นที่ที่มี "ความเสี่ยงสูง" ก็ตาม
ขอบเขตทั้งหมดของปัญหานี้เป็นเรื่องยากที่จะระบุได้ แต่บรรดานักวิจัยและวิศวกรกล่าวว่าพวกเขาพบกับ "ภาพหลอน" ของ Whisper เป็นประจำในการทำงานของพวกเขา
นักวิจัยจากมหาวิทยาลัยมิชิแกนกล่าวว่าเขาพบ "ภาพหลอน" ในไฟล์เสียงถอดความแปดในสิบไฟล์ที่เขาตรวจสอบ วิศวกรคอมพิวเตอร์พบ "ภาพหลอน" ประมาณครึ่งหนึ่งของไฟล์เสียงถอดความกว่า 100 ชั่วโมงที่เขาวิเคราะห์ นักพัฒนาอีกรายกล่าวว่าเขาพบ "ภาพหลอน" ในไฟล์เสียงเกือบทั้งหมด 26,000 ไฟล์ที่เขาสร้างขึ้นโดยใช้ Whisper
ปัญหายังคงอยู่แม้จะมีตัวอย่างเสียงสั้นๆ ที่บันทึกไว้อย่างชัดเจนก็ตาม การศึกษาเมื่อเร็วๆ นี้โดย นักวิทยาศาสตร์ คอมพิวเตอร์พบ "ภาพลวงตา" 187 ภาพในคลิปเสียงที่ชัดเจนกว่า 13,000 คลิปที่พวกเขาตรวจสอบ นักวิจัยกล่าวว่าแนวโน้มนี้จะนำไปสู่การถอดเสียงผิดพลาดหลายหมื่นครั้งในไฟล์บันทึกเสียงหลายล้านไฟล์
ข้อผิดพลาดดังกล่าวอาจก่อให้เกิด "ผลกระทบร้ายแรงมาก" โดยเฉพาะอย่างยิ่งในโรงพยาบาล ตามที่ Alondra Nelson ซึ่งดำรงตำแหน่งหัวหน้าสำนักงานวิทยาศาสตร์และเทคโนโลยีทำเนียบขาวในรัฐบาลของ Biden จนถึงปีที่แล้ว กล่าว
“ไม่มีใครอยากให้การวินิจฉัยผิดพลาด” เนลสัน ซึ่งปัจจุบันเป็นศาสตราจารย์ประจำสถาบันเพื่อการศึกษาขั้นสูงในพรินซ์ตัน รัฐนิวเจอร์ซีย์ กล่าว “จำเป็นต้องมีมาตรฐานที่สูงขึ้น”
นอกจากนี้ Whisper ยังใช้เพื่อสร้างคำบรรยายสำหรับผู้พิการทางการได้ยินและผู้ที่มีปัญหาทางการได้ยิน ซึ่งเป็นกลุ่มประชากรที่มีความเสี่ยงสูงต่อการแปลผิด เนื่องจากผู้พิการทางการได้ยินและผู้ที่มีปัญหาทางการได้ยินไม่สามารถระบุข้อความที่แต่งขึ้น “ซึ่งซ่อนอยู่ในข้อความอื่นๆ ทั้งหมด” คริสเตียน วอกเลอร์ ผู้พิการทางการได้ยินและผู้อำนวยการโครงการการเข้าถึงเทคโนโลยีแห่งมหาวิทยาลัยกัลลอเด็ต กล่าว
OpenAI ถูกเรียกใช้เพื่อแก้ไขปัญหา
การแพร่หลายของ "ภาพหลอน" ดังกล่าวทำให้ผู้เชี่ยวชาญ ผู้สนับสนุน และอดีตพนักงาน OpenAI เรียกร้องให้รัฐบาลกลางพิจารณากฎระเบียบด้าน AI อย่างน้อยที่สุด OpenAI จำเป็นต้องแก้ไขข้อบกพร่องนี้
“ปัญหาจะแก้ไขได้หากบริษัทยินดีที่จะให้ความสำคัญกับเรื่องนี้” วิลเลียม ซอนเดอร์ส วิศวกรวิจัยในซานฟรานซิสโก ซึ่งลาออกจาก OpenAI เมื่อเดือนกุมภาพันธ์เนื่องจากกังวลเกี่ยวกับทิศทางของบริษัท กล่าว
“มันจะเป็นปัญหาถ้าคุณเผยแพร่มันออกไป แล้วผู้คนก็มั่นใจในสิ่งที่มันทำได้มากจนนำมันไปรวมเข้ากับระบบอื่นๆ ทั้งหมด” โฆษกของ OpenAI กล่าวว่าบริษัทกำลังพยายามอย่างต่อเนื่องเพื่อหาวิธีลด “ภาพลวงตา” เหล่านี้ และชื่นชมผลการวิจัยของนักวิจัย โดยเสริมว่า OpenAI ได้นำข้อเสนอแนะมาปรับใช้กับการอัปเดตโมเดลด้วย
ในขณะที่นักพัฒนาส่วนใหญ่มักจะคิดว่าเครื่องมือแปลงข้อความเป็นเสียงสามารถพิมพ์ผิดหรือทำผิดพลาดอื่นๆ ได้ วิศวกรและนักวิจัยกล่าวว่าพวกเขาไม่เคยเห็นเครื่องมือแปลงข้อความเป็นเสียงที่ขับเคลื่อนด้วย AI ที่มี "อาการประสาทหลอน" มากเท่ากับ Whisper มาก่อน
ที่มา: https://tuoitre.vn/cong-cu-ai-chuyen-loi-noi-thanh-van-ban-cua-openai-bi-phat-hien-bia-chuyen-20241031144507089.htm
การแสดงความคิดเห็น (0)