Claude 4 ผลงานล่าสุดของ Anthropic ฉลาดขึ้นแต่ก็ยังทำให้เกิดภาพหลอนได้ ภาพโดย: Anthropic |
ในงานประชุมนักพัฒนาครั้งแรกของ Anthropic ที่ซานฟรานซิสโก Dario Amodei ซีอีโอกล่าวว่าโมเดล AI ในปัจจุบันสามารถสร้าง "ภาพหลอน" ได้ในอัตราที่ต่ำกว่ามนุษย์ "ภาพหลอน" ในที่นี้หมายถึงปรากฏการณ์ที่ AI สร้างเนื้อหาที่สมมติขึ้นแต่แสดงออกมาเหมือนจริง
Amodei เน้นย้ำว่าความจริงที่ว่า AI ทำให้เกิดภาพหลอนไม่ได้เป็นอุปสรรคต่อเป้าหมายของ Anthropic ในการบรรลุ AGI (ปัญญาประดิษฐ์ทั่วไป) "มันขึ้นอยู่กับมาตรฐานของคุณ แต่ผมคิดว่าความถี่ของภาพหลอนในโมเดล AI น่าจะน้อยกว่าในมนุษย์ เพียงแต่ว่าวิธีการทำผิดพลาดนั้นน่าประหลาดใจกว่า" เขากล่าว
Amodei เป็นหนึ่งในผู้สนับสนุน AGI ที่กล้าพูดมากที่สุดในอุตสาหกรรมนี้ “ผู้คนพยายามค้นหา ‘ขีดจำกัดสูงสุด’ ของ AI อยู่เสมอ” เขากล่าว “ตอนนี้เราไม่เห็นขีดจำกัดสูงสุดดังกล่าวเลย”
![]() |
CEO ของ Anthropic เป็นหนึ่งในผู้สนับสนุน "การมองโลกในแง่ดีต่อ AI" ภาพ: Anthropic |
อย่างไรก็ตาม ไม่ใช่ทุกคนที่เห็นด้วย Demis Hassabis ซีอีโอของ Google DeepMind ชี้ให้เห็นในสัปดาห์นี้ว่าโมเดล AI ในปัจจุบันนั้น “เต็มไปด้วยจุดบกพร่อง” แม้กระทั่งการตอบคำถามพื้นฐานบางข้อก็ผิด
นอกจากนี้ ยังมีสัญญาณว่าโมเดลใหม่บางรุ่นมีปัญหาในการอนุมานที่ซับซ้อนบ่อยครั้งขึ้น โมเดล o3 และ o4-mini ของ OpenAI มีอาการประสาทหลอนบ่อยครั้งกว่าโมเดลอนุมานรุ่นก่อนๆ แม้แต่ OpenAI เองก็ไม่เข้าใจสาเหตุ
นอกจากนี้ อโมไดยังกล่าวถึงว่ามนุษย์ทำผิดพลาดอยู่ตลอดเวลา ดังนั้นเขาจึงกล่าวว่า แม้ว่า AI จะผิดพลาด แต่ก็ไม่ได้หมายความว่ามัน "ไม่ฉลาดพอ" อย่างไรก็ตาม ผู้นำกลุ่มแอนโธรปิกยังยอมรับว่า AI สามารถสร้างปัญหาได้อย่างง่ายดายเมื่อให้ข้อมูลเท็จที่มีความน่าเชื่อถือสูงมาก
คำพูดของ Amodei ทำให้เกิดการถกเถียงในชุมชน AI เกี่ยวกับความสามารถที่แท้จริงของโมเดลปัจจุบัน ผู้เชี่ยวชาญบางคนเห็นด้วยว่า AI กำลังมีความคืบหน้าอย่างมากในการลดภาพลวงตา ผู้เชี่ยวชาญคนอื่นเตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากความมั่นใจเกินจริงของ AI ในข้อมูลที่ไม่ถูกต้อง
การอภิปรายครั้งนี้สะท้อนถึงความท้าทายสำคัญที่อุตสาหกรรม AI ต้องเผชิญ บริษัทต่างๆ กำลังมองหาการพัฒนาระบบที่ทั้งชาญฉลาดและน่าเชื่อถือ ซึ่งสามารถจัดการกับความไม่แน่นอนในการตอบสนองได้
ที่มา: https://znews.vn/ai-ao-giac-nhung-con-nguoi-bi-con-nhieu-hon-post1557486.html
การแสดงความคิดเห็น (0)