ชิป ปัญญาประดิษฐ์ (AI) เฉพาะทาง LPU ของ Groq กำลังกลายเป็นกระแสโด่งดังในชั่วข้ามคืนบนโซเชียลมีเดีย เนื่องจากผลการทดสอบประสิทธิภาพที่เปิดเผยต่อสาธารณะกำลังแพร่กระจายอยู่บนแพลตฟอร์มโซเชียลมีเดีย X
Groq อ้างว่านำเสนอ 'โมเดลการประมวลผลภาษาธรรมชาติที่เร็วที่สุด ในโลก ' และการทดสอบอิสระอย่างกว้างขวางชี้ให้เห็นว่าข้ออ้างดังกล่าวอาจเป็นความจริง
Groq ผลิตชิป AI เฉพาะทางที่เรียกว่า LPU (Language Processing Units) ซึ่งกล่าวกันว่าเร็วกว่า GPU ของ Nvidia GPU ของ Nvidia มักถูกมองว่าเป็นมาตรฐานอุตสาหกรรมสำหรับการประมวลผลโมเดล AI แต่ผลลัพธ์เบื้องต้นชี้ให้เห็นว่า LPU จะเหนือกว่า โดยเฉพาะอย่างยิ่งในงานที่ต้องการความเร็วสูง
โดยพื้นฐานแล้ว ชิป LPU ของ Groq คือ 'หน่วยประมวลผล' ที่ช่วยให้แชทบอทอย่าง ChatGPT และ Gemini สามารถทำงานได้ด้วยความเร็วในการรับและตอบสนองที่รวดเร็วอย่างมาก ในการทดสอบ แชทบอทที่ใช้ชิป LPU มีประสิทธิภาพเหนือกว่าแชทบอท 8 ตัวที่ใช้ชิป AI อื่นๆ ในหลายๆ ตัวชี้วัดประสิทธิภาพหลัก รวมถึงความหน่วงเทียบกับปริมาณงาน และเวลาตอบสนองโดยรวม ประสิทธิภาพที่เหนือกว่าของ LPU นั้นเห็นได้ชัดเจนที่สุดเมื่อทดสอบกับโมเดล Llama 2-70b ของ Meta
จากการทดสอบอิสระโดย Artificial Analysis พบว่าแชทบอทที่ใช้ชิป LPU สามารถประมวลผลได้ถึง 247 โทเค็นต่อวินาที เพื่อเปรียบเทียบ ChatGPT ของ OpenAI ในปัจจุบันประมวลผลได้สูงสุดเพียง 18 โทเค็นต่อวินาทีเท่านั้น นั่นหมายความว่า ChatGPT อาจเร็วขึ้นได้ถึง 13 เท่า หากใช้ชิปที่พัฒนาโดย Groq อย่างไรก็ตาม ขึ้นอยู่กับปัจจัยอื่นๆ อีกหลายอย่าง
จากข้อมูลของ Artificial Analysis ประสิทธิภาพในระดับนี้สามารถเปิดโอกาสใหม่ๆ สำหรับแบบจำลองภาษาขนาดใหญ่ (LLM) ในหลากหลายสาขา แชทบอทที่ใช้ชิป LPU ของ Groq สามารถสร้างคำศัพท์ได้หลายร้อยคำในทันที ทำให้ผู้ใช้สามารถทำงานต่างๆ ได้แบบเรียลไทม์ ในการทดลองครั้งหนึ่ง Jonathon Ross ผู้ก่อตั้งและซีอีโอของ Groq ได้แนะนำผู้ประกาศข่าวของ CNN ในการสนทนาสดกับแชทบอท AI ที่อยู่อีกฟากหนึ่งของโลก
แชทบอท AI อย่าง ChatGPT, Gemini และ Llama จะมีประโยชน์มากขึ้นอย่างมากหากพวกมันตอบสนองได้เร็วกว่านี้ ข้อจำกัดที่สำคัญอย่างหนึ่งในปัจจุบันคือ แชทบอทเหล่านี้ไม่สามารถตามทันคำพูดของมนุษย์ได้แบบเรียลไทม์ ความล่าช้ามากทำให้การสนทนาฟังดูเหมือนหุ่นยนต์และไม่เหมาะสมสำหรับหลายๆ ด้าน
แม้ว่าจะมีความคาดหวังมากมายเกี่ยวกับชิป LPU ของ Groq แต่ปัญหาเร่งด่วนในขณะนี้คือการประเมินความเหมาะสมในการใช้งานจริงเมื่อเทียบกับผลิตภัณฑ์ที่คล้ายคลึงกัน แตกต่างจาก GPU ของ Nvidia หรือ TPU ของ Google ชิป LPU ของ Groq เป็นชิป AI เฉพาะทางที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพสำหรับงานเฉพาะด้าน ไม่ใช่ชิป AI "อเนกประสงค์"
นอกจากนี้ ช่วงเวลานี้ยังเป็นช่วงที่ผู้พัฒนา AI รายใหญ่กำลังมองหาการพัฒนาชิปของตนเองเพื่อหลีกเลี่ยงการพึ่งพาผลิตภัณฑ์ของ Nvidia โดยมีรายงานว่า OpenAI กำลังมองหาเงินทุนหลายล้านล้านดอลลาร์เพื่อพัฒนาชิปของตนเอง Sam Altman ซีอีโอของ OpenAI ถึงกับกำลังพิจารณาที่จะสร้างสถาปัตยกรรมชิป AI ใหม่ทั้งหมดตั้งแต่เริ่มต้น
(อ้างอิงจาก Cryptoslate)
[โฆษณา_2]
แหล่งที่มา






การแสดงความคิดเห็น (0)