Vietnam.vn - Nền tảng quảng bá Việt Nam

งานวิจัยใหม่: AI ไม่ 'ใช้เหตุผล' เหมือนมนุษย์

โปรแกรมปัญญาประดิษฐ์ (AI) ได้ให้ผลลัพธ์ที่น่าประทับใจ แต่การวิจัยใหม่แสดงให้เห็นว่าเราไม่ควรกล่าวเกินจริงว่า AI สามารถใช้เหตุผลได้เหมือนมนุษย์

Báo Tuổi TrẻBáo Tuổi Trẻ07/09/2025

trí tuệ nhân tạo - Ảnh 1.

โปรแกรมปัญญาประดิษฐ์ประสบความสำเร็จมากมายในช่วงไม่กี่ปีที่ผ่านมา - ภาพ: REUTERS

เราไม่สามารถสังเกตกระบวนการทั้งหมดตั้งแต่ข้อมูลอินพุตไปจนถึงผลลัพธ์เอาต์พุตของโมเดลภาษาขนาดใหญ่ (LLM) ได้

เพื่อให้เข้าใจง่ายขึ้น นักวิทยาศาสตร์ จึงใช้คำศัพท์ทั่วไป เช่น "การใช้เหตุผล" เพื่ออธิบายวิธีการทำงานของโปรแกรมเหล่านี้ พวกเขายังกล่าวอีกว่าโปรแกรมเหล่านี้สามารถ "คิด" "ใช้เหตุผล" และ "เข้าใจ" ในแบบเดียวกับที่มนุษย์ทำ

การพูดเกินจริงเกี่ยวกับความสามารถของ AI

ในช่วงสองปีที่ผ่านมา ผู้บริหารด้าน AI จำนวนมากได้ใช้การพูดเกินจริงเพื่อยกย่องความสำเร็จทางเทคนิคที่เรียบง่าย ตามรายงานของ ZDNET เมื่อวันที่ 6 กันยายน

ในเดือนกันยายน พ.ศ. 2567 OpenAI ได้ประกาศว่าโมเดลการใช้เหตุผลแบบ o1 "ใช้ห่วงโซ่ของการอนุมานในการแก้ปัญหา คล้ายกับวิธีที่มนุษย์คิดเป็นเวลานานเมื่อต้องเผชิญกับคำถามที่ยาก"

อย่างไรก็ตาม นักวิทยาศาสตร์ด้าน AI คัดค้าน พวกเขาเชื่อว่า AI ไม่มีสติปัญญาเหมือนมนุษย์

การศึกษาวิจัยฐานข้อมูล arXiv โดยกลุ่มผู้เขียนจากมหาวิทยาลัยแห่งรัฐแอริโซนา (สหรัฐอเมริกา) ได้พิสูจน์ความสามารถในการใช้เหตุผลของ AI ด้วยการทดลองง่ายๆ

ผลการศึกษาแสดงให้เห็นว่า "การอนุมานโดยลำดับความคิดเป็นเพียงภาพลวงตาที่บอบบาง" ไม่ใช่กลไกเชิงตรรกะที่แท้จริง แต่เป็นเพียงรูปแบบการจับคู่รูปแบบที่ซับซ้อน

คำว่า "ห่วงโซ่แห่งความคิด" (CoT) ช่วยให้ AI ไม่เพียงแต่สามารถคิดคำตอบขั้นสุดท้ายได้เท่านั้น แต่ยังสามารถนำเสนอแต่ละขั้นตอนของการใช้เหตุผลเชิงตรรกะได้อีกด้วย เช่นเดียวกับในโมเดล GPT-o1 หรือ DeepSeek V1

Nghiên cứu mới: AI không 'suy luận' như con người - Ảnh 2.

ภาพประกอบโมเดลภาษา GPT-2 ของ OpenAI - รูปภาพ: ECHOCRAFTAI

มาดูกันว่า AI ทำอะไรจริงๆ

การวิเคราะห์ขนาดใหญ่แสดงให้เห็นว่า LLM มีแนวโน้มที่จะพึ่งพาความหมายและเบาะแสพื้นผิวมากกว่ากระบวนการการใช้เหตุผลเชิงตรรกะ นักวิจัยกล่าว

“LLM สร้างโซ่ตรรกะผิวเผินโดยอิงจากการเชื่อมโยงอินพุตที่เรียนรู้ ซึ่งมักจะล้มเหลวในงานที่เบี่ยงเบนไปจากวิธีการให้เหตุผลแบบเดิมหรือรูปแบบที่คุ้นเคย” ทีมงานอธิบาย

เพื่อทดสอบสมมติฐานที่ว่า LLM จับคู่รูปแบบเท่านั้นและไม่ได้ทำการอนุมานจริง ทีมงานได้ฝึก GPT-2 ซึ่งเป็นโมเดลโอเพ่นซอร์สที่เผยแพร่โดย OpenAI ในปี 2019

ในตอนแรกโมเดลนี้ถูกฝึกให้ทำงานง่ายๆ เกี่ยวกับตัวอักษรภาษาอังกฤษ 26 ตัว เช่น การกลับตัวอักษรบางตัว เช่น การเปลี่ยน "APPLE" เป็น "EAPPL" จากนั้นทีมงานจึงเปลี่ยนงานและขอให้ GPT-2 จัดการ

ผลลัพธ์แสดงให้เห็นว่าสำหรับงานที่ไม่ได้รวมอยู่ในข้อมูลการฝึกอบรม GPT-2 ไม่สามารถแก้ไขได้อย่างถูกต้องโดยใช้ CoT

ในทางกลับกัน แบบจำลองนี้พยายามประยุกต์ใช้งานที่เรียนรู้มาซึ่งมีความคล้ายคลึงกันมากที่สุด ดังนั้น “การอนุมาน” ของแบบจำลองนี้อาจฟังดูสมเหตุสมผล แต่ผลลัพธ์มักจะผิดพลาด

กลุ่มสรุปว่าไม่ควรพึ่งพาหรือเชื่อถือคำตอบของ LLM มากเกินไป เพราะคำตอบเหล่านั้นอาจออกมา "ไร้สาระที่ฟังดูน่าเชื่อถือมาก"

พวกเขายังเน้นย้ำถึงความจำเป็นในการเข้าใจธรรมชาติที่แท้จริงของ AI หลีกเลี่ยงการโฆษณาเกินจริง และหยุดส่งเสริมว่า AI มีความสามารถในการใช้เหตุผลเหมือนมนุษย์

กลับสู่หัวข้อ
อันห์ ทู

ที่มา: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm


การแสดงความคิดเห็น (0)

No data
No data

หัวข้อเดียวกัน

หมวดหมู่เดียวกัน

ทุ่งนาขั้นบันไดอันสวยงามตระการตาในหุบเขาหลุกฮอน
ดอกไม้ ‘ราคาสูง’ ราคาดอกละ 1 ล้านดอง ยังคงได้รับความนิยมในวันที่ 20 ตุลาคม
ภาพยนตร์เวียดนามและเส้นทางสู่รางวัลออสการ์
เยาวชนเดินทางไปภาคตะวันตกเฉียงเหนือเพื่อเช็คอินในช่วงฤดูข้าวที่สวยที่สุดของปี

ผู้เขียนเดียวกัน

มรดก

รูป

ธุรกิจ

เยาวชนเดินทางไปภาคตะวันตกเฉียงเหนือเพื่อเช็คอินในช่วงฤดูข้าวที่สวยที่สุดของปี

เหตุการณ์ปัจจุบัน

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์