Vietnam.vn - Nền tảng quảng bá Việt Nam

งานวิจัยใหม่: AI ไม่ 'ใช้เหตุผล' เหมือนมนุษย์

โปรแกรมปัญญาประดิษฐ์ (AI) ได้ให้ผลลัพธ์ที่น่าประทับใจ แต่การวิจัยใหม่แสดงให้เห็นว่าเราไม่ควรกล่าวเกินจริงว่า AI สามารถใช้เหตุผลได้เหมือนมนุษย์

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

โปรแกรมปัญญาประดิษฐ์ประสบความสำเร็จอย่างก้าวหน้ามากมายในช่วงไม่กี่ปีที่ผ่านมา - ภาพ: รอยเตอร์

เราไม่สามารถสังเกตกระบวนการทั้งหมดตั้งแต่ข้อมูลป้อนเข้าจนถึงผลลัพธ์ที่ได้จากแบบจำลองภาษาขนาดใหญ่ (LLMs) ได้

เพื่อให้เข้าใจง่ายขึ้น นักวิทยาศาสตร์ จึงใช้คำศัพท์ทั่วไป เช่น "การให้เหตุผล" เพื่ออธิบายวิธีการทำงานของโปรแกรมเหล่านี้ พวกเขายังกล่าวอีกว่าโปรแกรมเหล่านี้สามารถ "คิด" "ให้เหตุผล" และ "เข้าใจ" ได้เช่นเดียวกับมนุษย์

การกล่าวเกินจริงเกี่ยวกับความสามารถของ AI

จากรายงานของ ZDNET เมื่อวันที่ 6 กันยายน ระบุว่า ในช่วงสองปีที่ผ่านมา ผู้บริหารด้าน AI หลายคนใช้ภาษาที่เกินจริงเพื่อสร้างกระแสให้กับความสำเร็จทางเทคนิคที่เรียบง่าย

ในเดือนกันยายนปี 2024 OpenAI ได้ประกาศว่าโมเดลการให้เหตุผล o1 นั้น "ใช้กระบวนการอนุมานเป็นลำดับขั้นในการแก้ปัญหา คล้ายกับวิธีที่มนุษย์ใช้เวลานานในการคิดเมื่อเผชิญกับคำถามที่ยากลำบาก"

อย่างไรก็ตาม นักวิทยาศาสตร์ด้าน AI ไม่เห็นด้วย พวกเขาโต้แย้งว่า AI ไม่มีความฉลาดเหมือนมนุษย์

งานวิจัยที่อ้างอิงจากฐานข้อมูล arXiv โดยทีมผู้เขียนจากมหาวิทยาลัยแอริโซนาสเตท (สหรัฐอเมริกา) ได้ทดสอบความสามารถในการให้เหตุผลของ AI ผ่านการทดลองอย่างง่ายๆ

ผลการวิจัยแสดงให้เห็นว่า "การอนุมานโดยใช้ลำดับความคิดเป็นภาพลวงตาที่เปราะบาง" ไม่ใช่กลไกเชิงตรรกะที่แท้จริง แต่เป็นเพียงรูปแบบการจับคู่รูปแบบที่ซับซ้อนเท่านั้น

คำว่า “ลำดับความคิด” (Chain of Thought หรือ CoT) ช่วยให้ AI ไม่เพียงแต่สามารถหาคำตอบสุดท้ายได้เท่านั้น แต่ยังสามารถนำเสนอแต่ละขั้นตอนของการให้เหตุผลเชิงตรรกะได้ด้วย ดังเช่นในโมเดล GPT-o1 หรือ DeepSeek V1

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

ภาพประกอบแสดงแบบจำลองภาษา GPT-2 โดย OpenAI - ภาพ: ECHOCRAFTAI

มาดูกันว่า AI ทำอะไรได้บ้าง

ทีมวิจัยระบุว่า การวิเคราะห์ในวงกว้างแสดงให้เห็นว่า LLM มีแนวโน้มที่จะพึ่งพาความหมายและเบาะแสที่ปรากฏมากกว่ากระบวนการให้เหตุผลเชิงตรรกะ

"LLM สร้างห่วงโซ่ตรรกะแบบผิวเผินโดยอาศัยความสัมพันธ์ของข้อมูลที่เรียนรู้มา ซึ่งมักจะล้มเหลวในงานที่เบี่ยงเบนไปจากวิธีการให้เหตุผลแบบเดิมหรือรูปแบบที่คุ้นเคย" ทีมวิจัยอธิบาย

เพื่อทดสอบสมมติฐานที่ว่า LLM ทำหน้าที่เพียงแค่จับคู่รูปแบบเท่านั้น และไม่ได้ทำการอนุมานใดๆ ทีมงานจึงฝึกฝน GPT-2 ซึ่งเป็นโมเดลโอเพนซอร์สที่ OpenAI เปิดตัวในปี 2019

ในขั้นต้น โมเดลได้รับการฝึกฝนด้วยงานที่ง่ายมากเกี่ยวกับตัวอักษรภาษาอังกฤษ 26 ตัว เช่น การสลับตัวอักษรบางตัว ตัวอย่างเช่น เปลี่ยน "APPLE" เป็น "EAPPL" จากนั้นทีมงานได้เปลี่ยนงานและขอให้ GPT-2 จัดการกับงานนั้น

ผลการวิจัยแสดงให้เห็นว่า สำหรับงานที่ไม่ได้รวมอยู่ในข้อมูลการฝึกอบรม GPT-2 ไม่สามารถแก้ปัญหาได้อย่างแม่นยำโดยใช้ CoT

แต่ในทางกลับกัน โมเดลนี้พยายามนำงานที่เรียนรู้มาประยุกต์ใช้ให้ใกล้เคียงที่สุดเท่าที่จะเป็นไปได้ ดังนั้น "เหตุผล" ของมันอาจฟังดูมีเหตุผล แต่ผลลัพธ์มักจะผิดพลาด

กลุ่มดังกล่าวสรุปว่าไม่ควรพึ่งพาหรือเชื่อคำตอบของ LLM มากเกินไปโดยไม่ไตร่ตรอง เพราะคำตอบเหล่านั้นอาจให้ "เรื่องไร้สาระที่ฟังดูน่าเชื่อถือมาก"

นอกจากนี้ พวกเขายังเน้นย้ำถึงความจำเป็นในการทำความเข้าใจธรรมชาติที่แท้จริงของ AI หลีกเลี่ยงการกล่าวเกินจริง และหยุดส่งเสริมแนวคิดที่ว่า AI มีความสามารถในการใช้เหตุผลเหมือนมนุษย์

กลับสู่หัวข้อเดิม
อันห์ ทู

ที่มา: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


การแสดงความคิดเห็น (0)

กรุณาแสดงความคิดเห็นเพื่อแบ่งปันความรู้สึกของคุณ!

หัวข้อเดียวกัน

หมวดหมู่เดียวกัน

จุดบันเทิงคริสต์มาสที่สร้างความฮือฮาในหมู่วัยรุ่นในนครโฮจิมินห์ด้วยต้นสนสูง 7 เมตร
อะไรอยู่ในซอย 100 เมตรที่ทำให้เกิดความวุ่นวายในช่วงคริสต์มาส?
ประทับใจกับงานแต่งงานสุดอลังการที่จัดขึ้น 7 วัน 7 คืนที่ฟูก๊วก
ขบวนพาเหรดชุดโบราณ: ความสุขร้อยดอกไม้

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

ดอนเดน – ‘ระเบียงลอยฟ้า’ แห่งใหม่ของไทเหงียน ดึงดูดนักล่าเมฆรุ่นเยาว์

เหตุการณ์ปัจจุบัน

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์