โปรแกรมปัญญาประดิษฐ์ประสบความสำเร็จมากมายในช่วงไม่กี่ปีที่ผ่านมา - ภาพ: REUTERS
เราไม่สามารถสังเกตกระบวนการทั้งหมดตั้งแต่ข้อมูลอินพุตไปจนถึงผลลัพธ์เอาต์พุตของโมเดลภาษาขนาดใหญ่ (LLM) ได้
เพื่อให้เข้าใจง่ายขึ้น นักวิทยาศาสตร์ จึงใช้คำศัพท์ทั่วไป เช่น "การใช้เหตุผล" เพื่ออธิบายวิธีการทำงานของโปรแกรมเหล่านี้ พวกเขายังกล่าวอีกว่าโปรแกรมเหล่านี้สามารถ "คิด" "ใช้เหตุผล" และ "เข้าใจ" ในแบบเดียวกับที่มนุษย์ทำ
การพูดเกินจริงเกี่ยวกับความสามารถของ AI
ในช่วงสองปีที่ผ่านมา ผู้บริหารด้าน AI จำนวนมากได้ใช้การพูดเกินจริงเพื่อยกย่องความสำเร็จทางเทคนิคที่เรียบง่าย ตามรายงานของ ZDNET เมื่อวันที่ 6 กันยายน
ในเดือนกันยายน พ.ศ. 2567 OpenAI ได้ประกาศว่าโมเดลการใช้เหตุผลแบบ o1 "ใช้ห่วงโซ่ของการอนุมานในการแก้ปัญหา คล้ายกับวิธีที่มนุษย์คิดเป็นเวลานานเมื่อต้องเผชิญกับคำถามที่ยาก"
อย่างไรก็ตาม นักวิทยาศาสตร์ด้าน AI คัดค้าน พวกเขาเชื่อว่า AI ไม่มีสติปัญญาเหมือนมนุษย์
การศึกษาวิจัยฐานข้อมูล arXiv โดยกลุ่มผู้เขียนจากมหาวิทยาลัยแห่งรัฐแอริโซนา (สหรัฐอเมริกา) ได้พิสูจน์ความสามารถในการใช้เหตุผลของ AI ด้วยการทดลองง่ายๆ
ผลการศึกษาแสดงให้เห็นว่า "การอนุมานโดยลำดับความคิดเป็นเพียงภาพลวงตาที่บอบบาง" ไม่ใช่กลไกเชิงตรรกะที่แท้จริง แต่เป็นเพียงรูปแบบการจับคู่รูปแบบที่ซับซ้อน
คำว่า "ห่วงโซ่แห่งความคิด" (CoT) ช่วยให้ AI ไม่เพียงแต่สามารถคิดคำตอบขั้นสุดท้ายได้เท่านั้น แต่ยังสามารถนำเสนอแต่ละขั้นตอนของการใช้เหตุผลเชิงตรรกะได้อีกด้วย เช่นเดียวกับในโมเดล GPT-o1 หรือ DeepSeek V1
ภาพประกอบโมเดลภาษา GPT-2 ของ OpenAI - รูปภาพ: ECHOCRAFTAI
มาดูกันว่า AI ทำอะไรจริงๆ
การวิเคราะห์ขนาดใหญ่แสดงให้เห็นว่า LLM มีแนวโน้มที่จะพึ่งพาความหมายและเบาะแสพื้นผิวมากกว่ากระบวนการการใช้เหตุผลเชิงตรรกะ นักวิจัยกล่าว
“LLM สร้างโซ่ตรรกะผิวเผินโดยอิงจากการเชื่อมโยงอินพุตที่เรียนรู้ ซึ่งมักจะล้มเหลวในงานที่เบี่ยงเบนไปจากวิธีการให้เหตุผลแบบเดิมหรือรูปแบบที่คุ้นเคย” ทีมงานอธิบาย
เพื่อทดสอบสมมติฐานที่ว่า LLM จับคู่รูปแบบเท่านั้นและไม่ได้ทำการอนุมานจริง ทีมงานได้ฝึก GPT-2 ซึ่งเป็นโมเดลโอเพ่นซอร์สที่เผยแพร่โดย OpenAI ในปี 2019
ในตอนแรกโมเดลนี้ถูกฝึกให้ทำงานง่ายๆ เกี่ยวกับตัวอักษรภาษาอังกฤษ 26 ตัว เช่น การกลับตัวอักษรบางตัว เช่น การเปลี่ยน "APPLE" เป็น "EAPPL" จากนั้นทีมงานจึงเปลี่ยนงานและขอให้ GPT-2 จัดการ
ผลลัพธ์แสดงให้เห็นว่าสำหรับงานที่ไม่ได้รวมอยู่ในข้อมูลการฝึกอบรม GPT-2 ไม่สามารถแก้ไขได้อย่างถูกต้องโดยใช้ CoT
ในทางกลับกัน แบบจำลองนี้พยายามประยุกต์ใช้งานที่เรียนรู้มาซึ่งมีความคล้ายคลึงกันมากที่สุด ดังนั้น “การอนุมาน” ของแบบจำลองนี้อาจฟังดูสมเหตุสมผล แต่ผลลัพธ์มักจะผิดพลาด
กลุ่มสรุปว่าไม่ควรพึ่งพาหรือเชื่อถือคำตอบของ LLM มากเกินไป เพราะคำตอบเหล่านั้นอาจออกมา "ไร้สาระที่ฟังดูน่าเชื่อถือมาก"
พวกเขายังเน้นย้ำถึงความจำเป็นในการเข้าใจธรรมชาติที่แท้จริงของ AI หลีกเลี่ยงการโฆษณาเกินจริง และหยุดส่งเสริมว่า AI มีความสามารถในการใช้เหตุผลเหมือนมนุษย์
ที่มา: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
การแสดงความคิดเห็น (0)