กลุ่มนักวิจัยในเยอรมนีได้ออกมาเตือนถึงความเสี่ยงของอคติเมื่อใช้แชทบอท AI เพื่อย่อเนื้อหางานวิจัย หลังจากวิเคราะห์บทคัดย่อ ทางวิทยาศาสตร์ 4,900 ชิ้นที่เขียนโดยมนุษย์ ทีมงานได้ใช้โมเดล AI หลายแบบเพื่อเปรียบเทียบวิธีที่ระบบเหล่านี้ประมวลผลข้อมูล ผลการวิจัยแสดงให้เห็นว่าแชทบอทส่วนใหญ่ทำผิดพลาดด้วยการสรุปข้อมูลแบบกว้างๆ เกินไป แม้ว่าจะถูกขอให้สรุปข้อมูลอย่างถูกต้องก็ตาม
AI มีแนวโน้มที่จะมีอคติเมื่อสรุปผลการวิจัยทางวิทยาศาสตร์
ในการทดสอบ โมเดล AI ทำผิดพลาดมากกว่าผู้เชี่ยวชาญที่เป็นมนุษย์ถึงห้าเท่าเมื่อไม่ได้รับคำแนะนำ แม้จะถามถึงความแม่นยำอย่างชัดเจน อัตราความผิดพลาดก็ยังสูงกว่าการสรุปแบบมาตรฐานถึงสองเท่า “บางครั้งการสรุปแบบเหมารวมอาจดูเหมือนไม่เป็นอันตราย แต่จริงๆ แล้วกลับเปลี่ยนแปลงลักษณะของงานวิจัยเดิม” หนึ่งในทีมวิจัยกล่าว “มันเป็นอคติเชิงระบบ”
ที่น่าสังเกตคือ แชทบอทเวอร์ชันใหม่ๆ ไม่เพียงแต่ไม่สามารถแก้ไขปัญหาได้เท่านั้น แต่ยังทำให้ปัญหารุนแรงขึ้นอีกด้วย ด้วยภาษาที่ลื่นไหลและน่าสนใจ ทำให้บทสรุปที่สร้างโดย AI ดูน่าเชื่อถือได้ง่าย ในขณะที่เนื้อหาจริงกลับถูกบิดเบือนไป ในกรณีหนึ่ง DeepSeek ได้เปลี่ยนวลี “ปลอดภัยและสามารถดำเนินการได้สำเร็จ” เป็น “การรักษาที่ปลอดภัยและมีประสิทธิภาพ” ซึ่งเป็นการตีความข้อสรุปของการศึกษาเดิมอย่างผิดเพี้ยน
อีกตัวอย่างหนึ่ง แบบจำลองลามะแนะนำยารักษาโรคเบาหวานสำหรับคนหนุ่มสาวโดยไม่ระบุขนาดยา ความถี่ หรือผลข้างเคียง หากผู้อ่านเป็นแพทย์หรือบุคลากร ทางการแพทย์ ที่ไม่ได้ตรวจสอบความถูกต้องของงานวิจัยต้นฉบับ บทสรุปเช่นนี้อาจก่อให้เกิดความเสี่ยงโดยตรงต่อผู้ป่วย
ผู้เชี่ยวชาญกล่าวว่าปรากฏการณ์นี้มีรากฐานมาจากวิธีการฝึกฝนโมเดล AI ปัจจุบันแชทบอทจำนวนมากได้รับการฝึกฝนจากข้อมูลทุติยภูมิ เช่น ข่าววิทยาศาสตร์ยอดนิยม ซึ่งได้รับการปรับให้เรียบง่ายลงแล้ว ขณะที่ AI ยังคงสรุปเนื้อหาที่สั้นลง ความเสี่ยงของการบิดเบือนก็เพิ่มขึ้น
ผู้เชี่ยวชาญด้าน AI ในสาขาสุขภาพจิตกล่าวว่าจำเป็นต้องสร้างอุปสรรคทางเทคนิคในช่วงเริ่มต้นของการพัฒนาและการใช้งาน AI
ผู้ใช้ต้องระมัดระวังเนื่องจากแชทบอทสามารถบิดเบือนเนื้อหาได้อย่างง่ายดาย
เนื่องจากผู้ใช้พึ่งพาแชทบอท AI มากขึ้นในการเรียนรู้วิทยาศาสตร์ ความผิดพลาดเล็กๆ น้อยๆ ในการตีความจึงสามารถสะสมและแพร่กระจายได้อย่างรวดเร็ว ก่อให้เกิดการรับรู้ที่คลาดเคลื่อนอย่างกว้างขวาง ในช่วงเวลาที่ความเชื่อมั่นในวิทยาศาสตร์กำลังลดลง ความเสี่ยงนี้ยิ่งน่ากังวลและควรค่าแก่การใส่ใจ
การผสานรวม AI เข้ากับการวิจัยและการเผยแพร่ความรู้เป็นแนวโน้มที่ไม่อาจย้อนกลับได้ อย่างไรก็ตาม ผู้เชี่ยวชาญยืนยันว่าเทคโนโลยีไม่สามารถแทนที่บทบาทของมนุษย์ในการทำความเข้าใจและตรวจสอบเนื้อหาทางวิทยาศาสตร์ได้ เมื่อใช้แชทบอทในพื้นที่ที่มีความเสี่ยงสูง เช่น การแพทย์ ความแม่นยำควรเป็นสิ่งสำคัญที่สุด แทนที่จะมุ่งเน้นเพียงประสบการณ์การใช้ภาษาที่ราบรื่นหรือความเร็วในการตอบสนอง
ที่มา: https://khoahocdoisong.vn/chatgpt-deepseek-bop-meo-du-lieu-khoa-hoc-post1552971.html










การแสดงความคิดเห็น (0)