
โปรแกรมปัญญาประดิษฐ์ประสบความสำเร็จอย่างก้าวหน้ามากมายในช่วงไม่กี่ปีที่ผ่านมา - ภาพ: รอยเตอร์
เราไม่สามารถสังเกตกระบวนการทั้งหมดตั้งแต่ข้อมูลป้อนเข้าจนถึงผลลัพธ์ที่ได้จากแบบจำลองภาษาขนาดใหญ่ (LLMs) ได้
เพื่อให้เข้าใจง่ายขึ้น นักวิทยาศาสตร์ จึงใช้คำศัพท์ทั่วไป เช่น "การให้เหตุผล" เพื่ออธิบายวิธีการทำงานของโปรแกรมเหล่านี้ พวกเขายังกล่าวอีกว่าโปรแกรมเหล่านี้สามารถ "คิด" "ให้เหตุผล" และ "เข้าใจ" ได้เช่นเดียวกับมนุษย์
การกล่าวเกินจริงเกี่ยวกับความสามารถของ AI
จากรายงานของ ZDNET เมื่อวันที่ 6 กันยายน ระบุว่า ในช่วงสองปีที่ผ่านมา ผู้บริหารด้าน AI หลายคนใช้ภาษาที่เกินจริงเพื่อสร้างกระแสให้กับความสำเร็จทางเทคนิคที่เรียบง่าย
ในเดือนกันยายนปี 2024 OpenAI ได้ประกาศว่าโมเดลการให้เหตุผล o1 นั้น "ใช้กระบวนการอนุมานเป็นลำดับขั้นในการแก้ปัญหา คล้ายกับวิธีที่มนุษย์ใช้เวลานานในการคิดเมื่อเผชิญกับคำถามที่ยากลำบาก"
อย่างไรก็ตาม นักวิทยาศาสตร์ด้าน AI ไม่เห็นด้วย พวกเขาโต้แย้งว่า AI ไม่มีความฉลาดเหมือนมนุษย์
งานวิจัยที่อ้างอิงจากฐานข้อมูล arXiv โดยทีมผู้เขียนจากมหาวิทยาลัยแอริโซนาสเตท (สหรัฐอเมริกา) ได้ทดสอบความสามารถในการให้เหตุผลของ AI ผ่านการทดลองอย่างง่ายๆ
ผลการวิจัยแสดงให้เห็นว่า "การอนุมานโดยใช้ลำดับความคิดเป็นภาพลวงตาที่เปราะบาง" ไม่ใช่กลไกเชิงตรรกะที่แท้จริง แต่เป็นเพียงรูปแบบการจับคู่รูปแบบที่ซับซ้อนเท่านั้น
คำว่า “ลำดับความคิด” (Chain of Thought หรือ CoT) ช่วยให้ AI ไม่เพียงแต่สามารถหาคำตอบสุดท้ายได้เท่านั้น แต่ยังสามารถนำเสนอแต่ละขั้นตอนของการให้เหตุผลเชิงตรรกะได้ด้วย ดังเช่นในโมเดล GPT-o1 หรือ DeepSeek V1

ภาพประกอบแสดงแบบจำลองภาษา GPT-2 โดย OpenAI - ภาพ: ECHOCRAFTAI
มาดูกันว่า AI ทำอะไรได้บ้าง
ทีมวิจัยระบุว่า การวิเคราะห์ในวงกว้างแสดงให้เห็นว่า LLM มีแนวโน้มที่จะพึ่งพาความหมายและเบาะแสที่ปรากฏมากกว่ากระบวนการให้เหตุผลเชิงตรรกะ
"LLM สร้างห่วงโซ่ตรรกะแบบผิวเผินโดยอาศัยความสัมพันธ์ของข้อมูลที่เรียนรู้มา ซึ่งมักจะล้มเหลวในงานที่เบี่ยงเบนไปจากวิธีการให้เหตุผลแบบเดิมหรือรูปแบบที่คุ้นเคย" ทีมวิจัยอธิบาย
เพื่อทดสอบสมมติฐานที่ว่า LLM ทำหน้าที่เพียงแค่จับคู่รูปแบบเท่านั้น และไม่ได้ทำการอนุมานใดๆ ทีมงานจึงฝึกฝน GPT-2 ซึ่งเป็นโมเดลโอเพนซอร์สที่ OpenAI เปิดตัวในปี 2019
ในขั้นต้น โมเดลได้รับการฝึกฝนด้วยงานที่ง่ายมากเกี่ยวกับตัวอักษรภาษาอังกฤษ 26 ตัว เช่น การสลับตัวอักษรบางตัว ตัวอย่างเช่น เปลี่ยน "APPLE" เป็น "EAPPL" จากนั้นทีมงานได้เปลี่ยนงานและขอให้ GPT-2 จัดการกับงานนั้น
ผลการวิจัยแสดงให้เห็นว่า สำหรับงานที่ไม่ได้รวมอยู่ในข้อมูลการฝึกอบรม GPT-2 ไม่สามารถแก้ปัญหาได้อย่างแม่นยำโดยใช้ CoT
แต่ในทางกลับกัน โมเดลนี้พยายามนำงานที่เรียนรู้มาประยุกต์ใช้ให้ใกล้เคียงที่สุดเท่าที่จะเป็นไปได้ ดังนั้น "เหตุผล" ของมันอาจฟังดูมีเหตุผล แต่ผลลัพธ์มักจะผิดพลาด
กลุ่มดังกล่าวสรุปว่าไม่ควรพึ่งพาหรือเชื่อคำตอบของ LLM มากเกินไปโดยไม่ไตร่ตรอง เพราะคำตอบเหล่านั้นอาจให้ "เรื่องไร้สาระที่ฟังดูน่าเชื่อถือมาก"
นอกจากนี้ พวกเขายังเน้นย้ำถึงความจำเป็นในการทำความเข้าใจธรรมชาติที่แท้จริงของ AI หลีกเลี่ยงการกล่าวเกินจริง และหยุดส่งเสริมแนวคิดที่ว่า AI มีความสามารถในการใช้เหตุผลเหมือนมนุษย์
ที่มา: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






การแสดงความคิดเห็น (0)