การอ้างว่า DeepSeek ซึ่งเป็นสตาร์ทอัพจีนที่ฮอตที่สุดในช่วงไม่กี่วันที่ผ่านมา สามารถสร้าง AI ได้เทียบเท่ากับ OpenAI ด้วยเงินทุนเพียง 5 ล้านเหรียญสหรัฐ ได้ก่อให้เกิดความกังขา
DeepSeek ปรากฏตัวอย่างมากในหนังสือพิมพ์และเครือข่ายสังคมออนไลน์ในช่วงต้นปีงูและทำให้ตลาดหุ้นโลกสั่นสะเทือนอย่างรุนแรง
อย่างไรก็ตาม รายงานล่าสุดของบริษัทที่ปรึกษาทางการเงิน Bernstein เตือนว่า แม้บริษัทจะมีประวัติที่น่าประทับใจ แต่คำกล่าวอ้างของ OpenAI ว่าสามารถสร้างระบบ AI ที่เทียบเคียงได้กับระบบของตัวเองด้วยเงินเพียง 5 ล้านเหรียญสหรัฐฯ นั้นไม่ถูกต้อง
ตามที่เบิร์นสไตน์กล่าว คำชี้แจงของ DeepSeek เป็นการเข้าใจผิดและไม่ได้สะท้อนภาพรวมที่ใหญ่กว่า
“เราเชื่อว่า DeepSeek ไม่ได้ ‘สร้าง OpenAI ด้วยเงิน 5 ล้านเหรียญสหรัฐ’ โมเดลนั้นยอดเยี่ยมมากแต่เราไม่คิดว่ามันมหัศจรรย์ และความตื่นตระหนกในช่วงสุดสัปดาห์ก็ดูเกินจริงไป” รายงานระบุ
DeepSeek พัฒนาโมเดล AI หลักสองโมเดล ได้แก่ DeepSeek-V3 และ DeepSeek R1 โมเดลภาษาขนาดใหญ่ V3 ใช้ประโยชน์จากสถาปัตยกรรม MOE โดยผสมผสานโมเดลขนาดเล็กเพื่อให้ได้ประสิทธิภาพสูงในขณะที่ใช้ทรัพยากรคอมพิวเตอร์น้อยกว่าโมเดลดั้งเดิม
ในทางกลับกัน โมเดล V3 มีพารามิเตอร์ 671 พันล้านตัว โดยมีพารามิเตอร์ 37 พันล้านตัวที่ทำงานอยู่ในเวลาใดเวลาหนึ่ง โดยนำนวัตกรรมต่างๆ เช่น MHLA มาใช้เพื่อลดการใช้หน่วยความจำ และใช้ FP8 เพื่อประสิทธิภาพที่สูงขึ้น
การฝึกโมเดล V3 ต้องใช้ GPU Nvidia H800 จำนวน 2,048 ตัวเป็นเวลา 2 เดือน ซึ่งเทียบเท่ากับ 5.5 ล้านชั่วโมง GPU แม้ว่าจะมีการประมาณการบางส่วนว่าค่าใช้จ่ายในการฝึกอยู่ที่ประมาณ 5 ล้านดอลลาร์ แต่รายงานของ Bernstein เน้นย้ำว่าตัวเลขดังกล่าวหมายถึงทรัพยากรคอมพิวเตอร์เท่านั้น และไม่ได้คำนึงถึงต้นทุนที่สำคัญที่เกี่ยวข้องกับการวิจัย การทดสอบ และต้นทุนการพัฒนาอื่นๆ
แบบจำลอง DeepSeek R1 สร้างขึ้นบน V3 โดยใช้การเรียนรู้เชิงเสริมแรง (RL) และเทคนิคอื่นๆ เพื่อให้แน่ใจว่าสามารถอนุมานได้
โมเดล R1 สามารถแข่งขันกับโมเดลของ OpenAI ในงานการให้เหตุผลได้ อย่างไรก็ตาม Bernstein ชี้ให้เห็นว่าการพัฒนา R1 จำเป็นต้องใช้ทรัพยากรจำนวนมาก แม้ว่าจะไม่ได้มีรายละเอียดในรายงานของ DeepSeek ก็ตาม
Bernstein แสดงความคิดเห็นเกี่ยวกับ DeepSeek โดยกล่าวถึงโมเดลที่น่าประทับใจ ตัวอย่างเช่น โมเดล V3 มีประสิทธิภาพเทียบเท่าหรือดีกว่าโมเดลภาษาหลักอื่นๆ ในด้านภาษา การเขียนโปรแกรม และคณิตศาสตร์ ในขณะที่ใช้ทรัพยากรน้อยกว่า
กระบวนการฝึกอบรมล่วงหน้า V3 จำเป็นต้องใช้ชั่วโมง GPU เพียง 2.7 ล้านชั่วโมง หรือคิดเป็น 9% ของทรัพยากรการคำนวณเมื่อเทียบกับโมเดลชั้นนำอื่นๆ
แม้ว่าความก้าวหน้าของ DeepSeek จะน่าสังเกต แต่ Bernstein สรุปว่าควรระวังการกล่าวอ้างที่เกินจริง แนวคิดในการสร้างคู่แข่งของ OpenAI ด้วยเงินเพียง 5 ล้านเหรียญดูเหมือนเป็นความคิดที่ผิดพลาด
(ตามรายงานของ Times of India)
ที่มา: https://vietnamnet.vn/deepseek-khong-the-lam-ai-tuong-duong-openai-voi-5-trieu-usd-2367340.html
การแสดงความคิดเห็น (0)