
ในด้าน AI "การประจบสอพลอ" หมายถึงแนวโน้มของแชทบอทที่จะเห็นด้วยหรือชื่นชมผู้ใช้มากเกินไป - ภาพ: REUTERS
ตามรายงานของ SCMP โมเดลปัญญาประดิษฐ์ (AI) ชั้นนำจากจีนและสหรัฐอเมริกา เช่น DeepSeek, Alibaba และชื่อใหญ่ๆ อื่นๆ อีกมากมาย มีแนวโน้มที่จะ "ประจบสอพลอ" มากเกินไป ซึ่งเป็นพฤติกรรมที่สามารถส่งผลเสียต่อความสัมพันธ์ทางสังคมและสุขภาพจิตของผู้ใช้ได้
โดยเฉพาะอย่างยิ่ง การศึกษาวิจัยใหม่โดย นักวิทยาศาสตร์ จากมหาวิทยาลัยสแตนฟอร์ดและมหาวิทยาลัยคาร์เนกีเมลลอน (สหรัฐอเมริกา) ซึ่งเผยแพร่เมื่อต้นเดือนตุลาคม ได้ประเมินโมเดลภาษาขนาดใหญ่ (LLM) จำนวน 11 โมเดลเกี่ยวกับการตอบสนองเมื่อผู้ใช้ขอคำแนะนำในสถานการณ์ส่วนตัว โดยเฉพาะอย่างยิ่งสถานการณ์ที่มีองค์ประกอบของการหลอกลวงหรือการจัดการ
เพื่อเป็นเกณฑ์มาตรฐานในการเปรียบเทียบกับมนุษย์ ทีมงานได้ใช้โพสต์จากชุมชน "Am I The Ahole" บน Reddit โดยที่ผู้ใช้จะแชร์สถานการณ์ความขัดแย้งส่วนตัวและขอให้ชุมชนตัดสินว่าใครผิด
มีการทดสอบโมเดล AI ด้วยสถานการณ์เหล่านี้เพื่อดูว่าสอดคล้องกับการประเมินชุมชนหรือไม่
ผลการวิจัยแสดงให้เห็นว่าโมเดล Qwen2.5-7B-Instruct ของ Alibaba Cloud เป็นโมเดลที่ “ประจบสอพลอ” มากที่สุด โดยเอื้อประโยชน์ให้กับผู้โพสต์ถึง 79% ของเวลาทั้งหมด แม้ว่าชุมชนจะตัดสินว่าผู้โพสต์นั้นผิดก็ตาม ส่วน DeepSeek-V3 ตามมาเป็นอันดับสองด้วยอัตรา 76%
ในขณะเดียวกัน Gemini-1.5 ของ Google DeepMind แสดงให้เห็นถึงระดับการประจบสอพลอที่ต่ำที่สุด โดยมีเพียง 18% ของกรณีที่ขัดแย้งกับการประเมินของชุมชน
นักวิจัยเตือนว่าแนวโน้มของ AI ที่จะ "ประจบประแจง" ผู้ใช้อาจทำให้พวกเขามีความเต็มใจน้อยลงในการคืนดีหรือยอมรับความผิดพลาดในความสัมพันธ์
ในความเป็นจริง ผู้ใช้มักจะชื่นชมและเชื่อถือคำติชมที่ประจบประแจงมากกว่า ซึ่งทำให้รุ่นเหล่านี้เป็นที่นิยมและถูกใช้กันอย่างแพร่หลายมากขึ้น
“การตั้งค่าเหล่านี้สร้างแรงจูงใจที่ผิดเพี้ยน ผู้ ใช้เริ่มพึ่งพา AI ที่ดูดีมากขึ้น และนักพัฒนาจะมีแนวโน้มที่จะฝึกฝนโมเดลไปในทิศทางนั้น ” ทีมงานกล่าว
ตามที่ศาสตราจารย์แจ็ค เจียง ผู้อำนวยการห้องปฏิบัติการประเมิน AI แห่งคณะบริหารธุรกิจ มหาวิทยาลัยฮ่องกง กล่าวไว้ ปรากฏการณ์นี้ยังก่อให้เกิดความเสี่ยงต่อธุรกิจอีกด้วย โดย "หากโมเดลใดโมเดลหนึ่งสอดคล้องกับข้อสรุปของนักวิเคราะห์ธุรกิจอยู่เสมอ อาจนำไปสู่การตัดสินใจที่ผิดพลาดและไม่ปลอดภัย"
ปัญหาของ "การประจบสอพลอ" ของ AI ถูกเปิดเผยในเดือนเมษายน พ.ศ. 2568 เมื่อมีการกล่าวว่าการอัปเดต ChatGPT ของ OpenAI นั้นสุภาพเกินไปและเห็นอกเห็นใจความคิดเห็นของผู้ใช้มากเกินไป
ต่อมา OpenAI ยอมรับว่าสิ่งนี้อาจส่งผลต่อสุขภาพจิต และให้คำมั่นว่าจะปรับปรุงกระบวนการตรวจสอบก่อนที่จะเปิดตัวเวอร์ชันใหม่
ที่มา: https://tuoitre.vn/nhieu-chatbot-ai-ninh-hot-qua-da-lam-lech-lac-hanh-vi-nguoi-dung-20251031124343709.htm






การแสดงความคิดเห็น (0)