Vietnam.vn - Nền tảng quảng bá Việt Nam

Huawei อ้างว่าการฝึกอบรม AI ดีกว่า DeepSeek

ความก้าวหน้าของ Huawei ในด้านสถาปัตยกรรมการสร้างแบบจำลอง AI ถือเป็นสิ่งสำคัญ เนื่องจากบริษัทต้องการลดการพึ่งพาเทคโนโลยีของสหรัฐอเมริกา

ZNewsZNews05/06/2025

ด้วยการใช้เทคนิคที่ปรับปรุงจากการฝึกอบรม AI ของ DeepSeek ชิป Huawei Ascend จึงมอบประสิทธิภาพที่โดดเด่น ภาพ: Reuters

นักวิจัยที่ทำงานกับ Pangu large language model (LLM) ของ Huawei ได้ประกาศเมื่อวันที่ 4 มิถุนายนว่า พวกเขาได้ปรับปรุงแนวทางดั้งเดิมของ DeepSeek ในการฝึกปัญญาประดิษฐ์ (AI) โดยใช้ประโยชน์จากฮาร์ดแวร์ที่เป็นกรรมสิทธิ์ของบริษัท SCMP รายงาน

โดยเฉพาะอย่างยิ่งเอกสารที่ตีพิมพ์โดยทีม Pangu ของ Huawei ซึ่งประกอบด้วยผู้ร่วมมือหลัก 22 คนและนักวิจัยเพิ่มเติมอีก 56 คน ได้แนะนำแนวคิดของ Mixture of Grouped Experts (MoGE) ซึ่งเป็นเวอร์ชันอัปเกรดของเทคนิค Mixture of Experts (MoE) ที่มีบทบาทสำคัญในโมเดล AI ที่คุ้มต้นทุนของ DeepSeek

รายงานระบุว่า แม้ว่า MoE จะมีต้นทุนการดำเนินการต่ำสำหรับพารามิเตอร์โมเดลขนาดใหญ่และความสามารถในการเรียนรู้ขั้นสูง แต่ก็มักนำไปสู่ความไม่มีประสิทธิภาพ ซึ่งเกิดจากการเปิดใช้งานที่ไม่สม่ำเสมอ ซึ่งเป็นอุปสรรคต่อประสิทธิภาพเมื่อทำงานบนอุปกรณ์หลายเครื่องพร้อมกัน

ในขณะเดียวกัน MoGE ได้รับการปรับปรุงโดยทีมผู้เชี่ยวชาญในกระบวนการคัดเลือก และสร้างสมดุลภาระงานของ "ผู้เชี่ยวชาญ" ได้ดีขึ้น ตามที่นักวิจัยกล่าว

ในการฝึกอบรม AI คำว่า "ผู้เชี่ยวชาญ" หมายถึงโมเดลย่อยหรือส่วนประกอบเฉพาะทางภายในโมเดลขนาดใหญ่ โมเดลเหล่านี้แต่ละโมเดลจะได้รับการออกแบบให้รองรับงานเฉพาะหรือข้อมูลประเภทต่างๆ ซึ่งช่วยให้ระบบโดยรวมสามารถใช้ประโยชน์จากความเชี่ยวชาญที่หลากหลายเพื่อเพิ่มประสิทธิภาพการทำงาน

หัวเว่ยระบุว่า กระบวนการฝึกอบรมประกอบด้วยสามขั้นตอนหลัก ได้แก่ การเตรียมการก่อนการฝึกอบรม การขยายบริบทระยะยาว และหลังการฝึกอบรม กระบวนการทั้งหมดประกอบด้วยการเตรียมการก่อนการฝึกอบรมโทเค็นจำนวน 13.2 ล้านล้านโทเค็น และการขยายบริบทระยะยาวโดยใช้ชิป Ascend จำนวน 8,192 ตัว ซึ่งเป็นโปรเซสเซอร์ AI ที่ทรงพลังที่สุดของหัวเว่ย ใช้ในการฝึกอบรมโมเดล AI และมุ่งเป้าไปที่การท้าทายความเป็นผู้นำของ Nvidia ในการออกแบบชิประดับไฮเอนด์

จากการทดสอบสถาปัตยกรรมใหม่บนหน่วยประมวลผลประสาท (NPU) Ascend ที่ได้รับการออกแบบมาโดยเฉพาะเพื่อเร่งความเร็วในงาน AI นักวิจัยพบว่า MoGE "ส่งผลให้มีการปรับสมดุลโหลดของผู้เชี่ยวชาญที่ดีขึ้นและประสิทธิภาพการทำงานที่มีประสิทธิภาพมากขึ้นสำหรับทั้งการฝึกและการอนุมานโมเดล"

ผลลัพธ์ เมื่อเปรียบเทียบกับโมเดลต่างๆ เช่น DeepSeek-V3, Qwen2.5-72B ของ Alibaba และ Llama-405B ของ Meta Platforms แล้ว Pangu มีประสิทธิภาพเหนือกว่าเกณฑ์มาตรฐานภาษาอังกฤษทั่วไปและเกณฑ์มาตรฐานภาษาจีนทั้งหมด โดยแสดงให้เห็นถึงประสิทธิภาพที่เหนือกว่าในการฝึกอบรมในบริบทระยะยาว

ที่มา: https://znews.vn/huawei-tuyen-bo-huan-luyen-ai-tot-hon-deepseek-post1558359.html


การแสดงความคิดเห็น (0)

No data
No data
ขณะที่ SU-30MK2 "ตัดลม" อากาศก็รวมตัวกันที่ด้านหลังปีกเหมือนเมฆขาว
‘เวียดนาม – ก้าวสู่อนาคตอย่างภาคภูมิใจ’ เผยแพร่ความภาคภูมิใจในชาติ
เยาวชนแห่ซื้อกิ๊บติดผมและสติ๊กเกอร์ดาวทองเนื่องในโอกาสวันชาติ
ชมรถถังที่ทันสมัยที่สุดในโลก โดรนฆ่าตัวตาย ที่ศูนย์ฝึกสวนสนาม
เทรนด์การทำเค้กพิมพ์ธงแดงและดาวเหลือง
เสื้อยืดและธงชาติเต็มถนนหางหม่าเพื่อต้อนรับเทศกาลสำคัญ
ค้นพบจุดเช็คอินแห่งใหม่: กำแพง 'รักชาติ'
ชมการจัดทัพเครื่องบินอเนกประสงค์ Yak-130 'เปิดพลังเสริม สู้รอบ'
จาก A50 สู่ A80 – เมื่อความรักชาติเป็นกระแส
‘สตีล โรส’ A80: จากรอยเท้าเหล็กสู่ชีวิตประจำวันอันสดใส

มรดก

รูป

ธุรกิจ

No videos available

ข่าว

ระบบการเมือง

ท้องถิ่น

ผลิตภัณฑ์