AI ทำงานได้ดีที่สุดเมื่อได้รับปัญหาที่ต้องแก้ไขโดยมีกระบวนการที่ชัดเจนและมีสูตรตายตัว แต่เมื่อต้องจัดการกับสถานการณ์ที่ต้องใช้การตัดสินเชิงอัตวิสัยหรือเกี่ยวข้องกับความชอบส่วนบุคคล AI ก็สามารถทำผิดพลาดได้เช่นเดียวกับมนุษย์ - รูปภาพ: AI
การศึกษาใหม่ที่ตีพิมพ์ในวารสาร Manufacturing & Service Operations Management โดย นักวิทยาศาสตร์ จากมหาวิทยาลัย 5 แห่งในแคนาดาและออสเตรเลียได้ประเมินพฤติกรรมของ ChatGPT (โดยเฉพาะอย่างยิ่งโมเดล GPT-3.5 และ GPT-4 สองโมเดลของ OpenAI) ต่ออคติทางความคิดที่โดดเด่น 18 ประการซึ่งมักพบในทางจิตวิทยาของมนุษย์ เช่น อคติยืนยัน ผลจากการมอบของขวัญ ความเข้าใจผิดเกี่ยวกับต้นทุนที่จมไป และจิตวิทยาด้านความแน่นอน...
ผลลัพธ์แสดงให้เห็นว่าในเกือบครึ่งหนึ่งของสถานการณ์ที่ทดสอบ ChatGPT มีพฤติกรรมเหมือนมนุษย์ทุกประการเมื่อต้องเผชิญกับทางเลือกที่ไม่สมเหตุสมผลหรือมีอารมณ์ แม้ว่าระบบจะมีชื่อเสียงในเรื่องการใช้เหตุผลเชิงตรรกะที่สอดคล้องกันก็ตาม
AI มี "ความเที่ยงธรรม" ตามที่คาดหวังจริงหรือ?
ดร. หยาง เฉิน ผู้ช่วยศาสตราจารย์ด้านการจัดการการดำเนินงานที่ Ivey Business School (แคนาดา) และหัวหน้าคณะผู้จัดทำผลการศึกษา กล่าวว่า "ปัญญาประดิษฐ์จะทำงานได้ดีที่สุดเมื่อได้รับมอบหมายให้แก้ไขปัญหาที่มีกระบวนการที่ชัดเจนและสูตรตายตัว แต่เมื่อต้องจัดการกับสถานการณ์ที่ต้องใช้การตัดสินใจตามอัตวิสัยหรือเกี่ยวข้องกับความชอบส่วนบุคคล ปัญญาประดิษฐ์ก็อาจทำผิดพลาดได้เช่นเดียวกับมนุษย์"
ทีมวิจัยได้นำสถานการณ์สมมติที่คุ้นเคยในทางจิตวิทยามาไว้ใน ChatGPT โดยเพิ่มบริบทเชิงปฏิบัติ เช่น การจัดการสินค้าคงคลังหรือการเจรจากับซัพพลายเออร์
เป็นเรื่องที่น่าสังเกตว่าโมเดล AI ยังคงแสดงอคติทางความคิดแม้ว่าบริบทของคำถามจะเปลี่ยนจากนามธรรมไปเป็นความเป็นจริงทางธุรกิจก็ตาม
GPT-4 ฉลาดกว่าแต่ไม่สมบูรณ์แบบ
GPT-4 เป็นเวอร์ชันอัพเกรดของ GPT-3.5 ที่โดดเด่นในการแก้ปัญหาตรรกะหรือความน่าจะเป็น อย่างไรก็ตาม ในการจำลองแบบอัตนัย เช่น การเลือกตัวเลือกที่มีความเสี่ยงเพื่อเพิ่มผลกำไร GPT-4 แสดงให้เห็นแนวโน้มทางอารมณ์มากกว่ามนุษย์
โดยเฉพาะอย่างยิ่ง การศึกษาพบว่า GPT-4 ให้การตอบสนองแบบลำเอียงอย่างสม่ำเสมอในสถานการณ์การทดสอบอคติยืนยัน และมีแนวโน้มเกิด "ความเข้าใจผิดจากการเดาสุ่ม" มากกว่า GPT-3.5 ซึ่งเป็นแนวโน้มที่จะเชื่อว่าเหตุการณ์สุ่มจะเกิดขึ้นซ้ำในชุดข้อมูล
ในทางตรงกันข้าม AI สามารถหลีกเลี่ยงอคติบางประการที่มนุษย์มักกระทำได้ เช่น การละเลยอัตราฐานหรือความเข้าใจผิดเรื่องต้นทุนจม
เหตุผลที่ ChatGPT แสดงอคติแบบมนุษย์นั้นมาจากข้อมูลการฝึกอบรมซึ่งเต็มไปด้วยพฤติกรรมและความคิดที่มีอคติของเราเอง - ภาพ: AI
ต้นกำเนิดของอคติ AI: จากข้อมูลของมนุษย์
ตามที่ทีมวิจัยได้กล่าวไว้ เหตุผลที่ ChatGPT แสดงอคติเหมือนมนุษย์นั้นมาจากข้อมูลการฝึกอบรมนั้นเอง ซึ่งเต็มไปด้วยพฤติกรรมและความคิดอันลำเอียงของตัวเราเอง ความจริงที่ว่า AI ได้รับการปรับแต่งตามข้อเสนอแนะของมนุษย์ยิ่งช่วยเสริมสร้างแนวโน้มนี้ เนื่องจากโมเดลจะได้รับ "รางวัล" สำหรับการตอบสนองที่ดูสมเหตุสมผล แทนที่จะแม่นยำอย่างสมบูรณ์
“หากต้องการผลลัพธ์ที่แม่นยำและไม่มีอคติ ให้ใช้ AI สำหรับงานที่คุณไว้วางใจให้คอมพิวเตอร์ทำได้ดีอยู่แล้ว” ดร.เฉินแนะนำ “แต่หากคุณต้องจัดการกับปัญหาเชิงยุทธศาสตร์หรือทางอารมณ์ มนุษย์ยังคงต้องตรวจสอบและแทรกแซง แม้ว่าจะเป็นเพียงการเปลี่ยนคำถามก็ตาม”
“AI ควรได้รับการปฏิบัติเหมือนเป็นพนักงานที่มีอำนาจในการตัดสินใจที่สำคัญ ซึ่งหมายความว่า AI จำเป็นต้องได้รับการติดตามและปฏิบัติตามจริยธรรม มิฉะนั้น เราจะเผลอทำให้การคิดที่ผิดพลาดกลายเป็นระบบอัตโนมัติแทนที่จะปรับปรุงมัน” Meena Andiappan ผู้ช่วยศาสตราจารย์ด้านทรัพยากรบุคคลและการจัดการที่มหาวิทยาลัย McMaster (แคนาดา) ผู้เขียนร่วมกล่าว
ที่มา: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
การแสดงความคิดเห็น (0)