บริษัท Foxconn ของไต้หวันประกาศเมื่อวันนี้ (10 มีนาคม) ว่าได้พัฒนาโมเดลภาษาขนาดใหญ่รุ่นแรก และวางแผนที่จะใช้เทคโนโลยีดังกล่าวเพื่อปรับปรุงการผลิตและการจัดการห่วงโซ่อุปทาน
โมเดลดังกล่าวซึ่งมีชื่อว่า "FoxBrain" ได้รับการฝึกโดยใช้ GPU H100 ของ Nvidia จำนวน 120 ตัว และทำเสร็จภายในเวลาประมาณสี่สัปดาห์ ตามที่ผู้ผลิตชิปตามสัญญาที่ใหญ่ที่สุด ในโลก กล่าวอ้าง
Foxconn เปิดตัวโมเดลภาษาหลักรุ่นแรก ซึ่งใกล้เคียงกับมาตรฐานชั้นนำของโลก
บริษัทที่ประกอบ iPhone ให้กับ Apple และยังผลิตเซิร์ฟเวอร์ปัญญาประดิษฐ์ให้กับ Nvidia อีกด้วย กล่าวว่าโมเดลดังกล่าวใช้สถาปัตยกรรม Llama 3.1 ของ Meta
นี่เป็นโมเดลภาษาขนาดใหญ่รุ่นแรกของไต้หวันที่มีความสามารถในการอนุมาน ซึ่งได้รับการปรับให้เหมาะสมสำหรับรูปแบบภาษาจีนดั้งเดิมและภาษาไต้หวัน
Foxconn กล่าวว่าถึงแม้จะมีช่องว่างด้านประสิทธิภาพเพียงเล็กน้อยเมื่อเทียบกับโมเดลที่กลั่นกรองจากจีนของ DeepSeek แต่ประสิทธิภาพโดยรวมของ FoxBrain นั้นใกล้เคียงกับมาตรฐานชั้นนำของโลกมาก
FoxBrain ได้รับการออกแบบมาสำหรับการใช้งานภายในในตอนแรก โดยประกอบไปด้วยการวิเคราะห์ข้อมูล การสนับสนุนการตัดสินใจ การทำงานร่วมกันบนเอกสาร คณิตศาสตร์ การใช้เหตุผลและการแก้ปัญหา และการสร้างโค้ดโปรแกรม
Foxconn วางแผนที่จะทำงานร่วมกับพันธมิตรด้านเทคโนโลยีเพื่อขยายแอปพลิเคชันของโมเดล แบ่งปันข้อมูลโอเพ่นซอร์ส และใช้ประโยชน์จากปัญญาประดิษฐ์ในการผลิต การจัดการห่วงโซ่อุปทาน และการตัดสินใจอย่างชาญฉลาด
ตามรายงานของ Foxconn บริษัท Nvidia ให้การสนับสนุนผ่านซูเปอร์คอมพิวเตอร์ "Taipei-1" ที่ตั้งอยู่ในไต้หวัน และให้คำแนะนำทางเทคนิคในระหว่างการฝึกอบรมแบบจำลอง
ไทเป-1 ซึ่งเป็นซูเปอร์คอมพิวเตอร์ที่ใหญ่ที่สุดในไต้หวัน เป็นของและดำเนินการโดย Nvidia ในเมืองเกาสง ซึ่งเป็นเมืองทางตอนใต้ของเกาะ
คาดว่า Foxconn จะประกาศรายละเอียดเพิ่มเติมเกี่ยวกับโมเดลดังกล่าวในงานประชุมนักพัฒนา GTC ของ Nvidia ในช่วงกลางเดือนมีนาคม
(ที่มา: รอยเตอร์)
ที่มา: https://www.baogiaothong.vn/foxconn-ra-mat-mo-hinh-ngon-ngu-lon-dau-tien-192250310181358802.htm
การแสดงความคิดเห็น (0)