Vietnam.vn - Nền tảng quảng bá Việt Nam

AI ทำผิดพลาดอย่างไร้เหตุผลและมีอคติเช่นเดียวกับมนุษย์

แม้ว่าระบบปัญญาประดิษฐ์ (AI) เช่น ChatGPT จะทำงานบนแพลตฟอร์มข้อมูลและอัลกอริทึมขนาดใหญ่ แต่ก็ยังมีความเสี่ยงต่ออคติทางความคิดทั่วไปของมนุษย์ เช่น ความมั่นใจเกินเหตุและลำเอียง

Báo Tuổi TrẻBáo Tuổi Trẻ05/05/2025

AI - Ảnh 1.

AI ทำงานได้ดีที่สุดเมื่อได้รับปัญหาที่ต้องแก้ไขโดยมีกระบวนการที่ชัดเจนและมีสูตรตายตัว แต่เมื่อต้องจัดการกับสถานการณ์ที่ต้องใช้การตัดสินเชิงอัตวิสัยหรือเกี่ยวข้องกับความชอบส่วนบุคคล AI ก็สามารถทำผิดพลาดได้เช่นเดียวกับมนุษย์ - รูปภาพ: AI

การศึกษาใหม่ที่ตีพิมพ์ในวารสาร Manufacturing & Service Operations Management โดย นักวิทยาศาสตร์ จากมหาวิทยาลัย 5 แห่งในแคนาดาและออสเตรเลียได้ประเมินพฤติกรรมของ ChatGPT (โดยเฉพาะอย่างยิ่งโมเดล GPT-3.5 และ GPT-4 สองโมเดลของ OpenAI) ต่ออคติทางความคิดที่โดดเด่น 18 ประการซึ่งมักพบในทางจิตวิทยาของมนุษย์ เช่น อคติยืนยัน ผลจากการมอบของขวัญ ความเข้าใจผิดเกี่ยวกับต้นทุนที่จมไป และจิตวิทยาด้านความแน่นอน...

ผลลัพธ์แสดงให้เห็นว่าในเกือบครึ่งหนึ่งของสถานการณ์ที่ทดสอบ ChatGPT มีพฤติกรรมเหมือนมนุษย์ทุกประการเมื่อต้องเผชิญกับทางเลือกที่ไม่สมเหตุสมผลหรือมีอารมณ์ แม้ว่าระบบจะมีชื่อเสียงในเรื่องการใช้เหตุผลเชิงตรรกะที่สอดคล้องกันก็ตาม

AI มี "ความเที่ยงธรรม" ตามที่คาดหวังจริงหรือ?

ดร. หยาง เฉิน ผู้ช่วยศาสตราจารย์ด้านการจัดการการดำเนินงานที่ Ivey Business School (แคนาดา) และหัวหน้าคณะผู้จัดทำผลการศึกษา กล่าวว่า "ปัญญาประดิษฐ์จะทำงานได้ดีที่สุดเมื่อได้รับมอบหมายให้แก้ไขปัญหาที่มีกระบวนการที่ชัดเจนและสูตรตายตัว แต่เมื่อต้องจัดการกับสถานการณ์ที่ต้องใช้การตัดสินใจตามอัตวิสัยหรือเกี่ยวข้องกับความชอบส่วนบุคคล ปัญญาประดิษฐ์ก็อาจทำผิดพลาดได้เช่นเดียวกับมนุษย์"

ทีมวิจัยได้นำสถานการณ์สมมติที่คุ้นเคยในทางจิตวิทยามาไว้ใน ChatGPT โดยเพิ่มบริบทเชิงปฏิบัติ เช่น การจัดการสินค้าคงคลังหรือการเจรจากับซัพพลายเออร์

เป็นเรื่องที่น่าสังเกตว่าโมเดล AI ยังคงแสดงอคติทางความคิดแม้ว่าบริบทของคำถามจะเปลี่ยนจากนามธรรมไปเป็นความเป็นจริงทางธุรกิจก็ตาม

GPT-4 ฉลาดกว่าแต่ไม่สมบูรณ์แบบ

GPT-4 เป็นเวอร์ชันอัพเกรดของ GPT-3.5 ที่โดดเด่นในการแก้ปัญหาตรรกะหรือความน่าจะเป็น อย่างไรก็ตาม ในการจำลองแบบอัตนัย เช่น การเลือกตัวเลือกที่มีความเสี่ยงเพื่อเพิ่มผลกำไร GPT-4 แสดงให้เห็นแนวโน้มทางอารมณ์มากกว่ามนุษย์

โดยเฉพาะอย่างยิ่ง การศึกษาพบว่า GPT-4 ให้การตอบสนองแบบลำเอียงอย่างสม่ำเสมอในสถานการณ์การทดสอบอคติยืนยัน และมีแนวโน้มเกิด "ความเข้าใจผิดจากการเดาสุ่ม" มากกว่า GPT-3.5 ซึ่งเป็นแนวโน้มที่จะเชื่อว่าเหตุการณ์สุ่มจะเกิดขึ้นซ้ำในชุดข้อมูล

ในทางตรงกันข้าม AI สามารถหลีกเลี่ยงอคติบางประการที่มนุษย์มักกระทำได้ เช่น การละเลยอัตราฐานหรือความเข้าใจผิดเรื่องต้นทุนจม

AI - Ảnh 2.

เหตุผลที่ ChatGPT แสดงอคติแบบมนุษย์นั้นมาจากข้อมูลการฝึกอบรมซึ่งเต็มไปด้วยพฤติกรรมและความคิดที่มีอคติของเราเอง - ภาพ: AI

ต้นกำเนิดของอคติ AI: จากข้อมูลของมนุษย์

ตามที่ทีมวิจัยได้กล่าวไว้ เหตุผลที่ ChatGPT แสดงอคติเหมือนมนุษย์นั้นมาจากข้อมูลการฝึกอบรมนั้นเอง ซึ่งเต็มไปด้วยพฤติกรรมและความคิดอันลำเอียงของตัวเราเอง ความจริงที่ว่า AI ได้รับการปรับแต่งตามข้อเสนอแนะของมนุษย์ยิ่งช่วยเสริมสร้างแนวโน้มนี้ เนื่องจากโมเดลจะได้รับ "รางวัล" สำหรับการตอบสนองที่ดูสมเหตุสมผล แทนที่จะแม่นยำอย่างสมบูรณ์

“หากต้องการผลลัพธ์ที่แม่นยำและไม่มีอคติ ให้ใช้ AI สำหรับงานที่คุณไว้วางใจให้คอมพิวเตอร์ทำได้ดีอยู่แล้ว” ดร.เฉินแนะนำ “แต่หากคุณต้องจัดการกับปัญหาเชิงยุทธศาสตร์หรือทางอารมณ์ มนุษย์ยังคงต้องตรวจสอบและแทรกแซง แม้ว่าจะเป็นเพียงการเปลี่ยนคำถามก็ตาม”

“AI ควรได้รับการปฏิบัติเหมือนเป็นพนักงานที่มีอำนาจในการตัดสินใจที่สำคัญ ซึ่งหมายความว่า AI จำเป็นต้องได้รับการติดตามและปฏิบัติตามจริยธรรม มิฉะนั้น เราจะเผลอทำให้การคิดที่ผิดพลาดกลายเป็นระบบอัตโนมัติแทนที่จะปรับปรุงมัน” Meena Andiappan ผู้ช่วยศาสตราจารย์ด้านทรัพยากรบุคคลและการจัดการที่มหาวิทยาลัย McMaster (แคนาดา) ผู้เขียนร่วมกล่าว

อ่านเพิ่มเติม กลับไปยังหัวข้อ
กลับสู่หัวข้อ
มินห์ ไฮ

ที่มา: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm


การแสดงความคิดเห็น (0)

No data
No data

หมวดหมู่เดียวกัน

พบกับทุ่งขั้นบันไดมู่ฉางไฉในฤดูน้ำท่วม
หลงใหลในนกที่ล่อคู่ครองด้วยอาหาร
เมื่อไปเที่ยวซาปาช่วงฤดูร้อนต้องเตรียมตัวอะไรบ้าง?
ความงามอันดุร้ายและเรื่องราวลึกลับของแหลมวีร่องในจังหวัดบิ่ญดิ่ญ

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์