ชิป LPU ที่ใช้ปัญญาประดิษฐ์ (AI) โดยเฉพาะ ซึ่งพัฒนาโดย Groq กำลังกลายเป็นกระแสฮือฮาบนโซเชียลมีเดียในชั่วข้ามคืน เนื่องจากการทดสอบประสิทธิภาพต่อสาธารณะของชิปดังกล่าวแพร่หลายไปบนแพลตฟอร์มโซเชียลมีเดีย X
Groq อ้างว่าสามารถนำเสนอ 'โมเดลการประมวลผลภาษาธรรมชาติที่เร็วที่สุดในโลก ' และการทดสอบอิสระอย่างกว้างขวางก็ชี้ให้เห็นว่าการอ้างสิทธิ์ดังกล่าวอาจมีความถูกต้อง
Groq ผลิตชิป AI เฉพาะทางที่เรียกว่า LPU (Language Processing Unit) ซึ่งกล่าวกันว่าเร็วกว่า GPU ของ Nvidia GPU ของ Nvidia มักถูกมองว่าเป็นมาตรฐานอุตสาหกรรมสำหรับการรันโมเดล AI แต่ผลการศึกษาเบื้องต้นชี้ให้เห็นว่า LPU จะมีประสิทธิภาพเหนือกว่า อย่างน้อยก็ในงานที่ต้องการความเร็วสูง
โดยพื้นฐานแล้ว ชิป LPU ของ Groq คือ ‘กลไกประมวลผล’ ที่ช่วยให้แชทบอทอย่าง ChatGPT และ Gemini ทำงานด้วยความเร็วในการรับและตอบสนองที่รวดเร็วปานสายฟ้าแลบ จากการทดสอบ แชทบอทที่ขับเคลื่อนด้วย LPU มีประสิทธิภาพเหนือกว่าแชทบอทแปดตัวที่ใช้ชิป AI อื่นๆ ในตัวชี้วัดประสิทธิภาพหลักหลายประการ รวมถึงความหน่วงเทียบกับปริมาณงาน และเวลาตอบสนองทั้งหมด ประสิทธิภาพที่เหนือกว่าของ LPU เห็นได้ชัดเจนที่สุดเมื่อทดสอบเทียบกับโมเดล Llama 2-70b ของ Meta
จากการทดสอบอิสระโดย Artificial Analysis พบว่าแชทบอทที่ใช้ชิป LPU สามารถประมวลผลข้อมูลได้ 247 โทเค็นต่อวินาที เมื่อเปรียบเทียบกันแล้ว ChatGPT ของ OpenAI ในปัจจุบันสามารถประมวลผลข้อมูลได้สูงสุดเพียง 18 โทเค็นต่อวินาที ซึ่งหมายความว่า ChatGPT อาจทำงานได้เร็วกว่าถึง 13 เท่า หากใช้ชิปของ Groq แม้ว่าจะขึ้นอยู่กับปัจจัยอื่นๆ ที่เกี่ยวข้องอีกมากมาย
จากการวิเคราะห์เชิงประดิษฐ์ (Artificial Analysis) พบว่าประสิทธิภาพระดับนี้อาจเปิดโอกาสใหม่ๆ ให้กับโมเดลภาษาขนาดใหญ่ (LLM) ในหลากหลายโดเมน แชทบอทที่ใช้ชิป LPU ของ Groq สามารถสร้างคำศัพท์ได้หลายร้อยคำภายในเสี้ยววินาที ทำให้ผู้ใช้สามารถทำงานต่างๆ ได้แบบเรียลไทม์ ในการทดสอบครั้งหนึ่ง โจนาธาน รอสส์ ผู้ก่อตั้งและซีอีโอของ Groq ได้นำผู้ประกาศข่าว CNN ผ่านการสนทนาสดกับแชทบอท AI ที่อยู่อีกฟากหนึ่งของโลก
แชทบอท AI อย่าง ChatGPT, Gemini, Llama... อาจมีประโยชน์มากขึ้นอย่างมากหากตอบสนองได้เร็วกว่านี้ ข้อจำกัดสำคัญประการหนึ่งในปัจจุบันคือแชทบอทเหล่านี้ไม่สามารถโต้ตอบกับมนุษย์ได้แบบเรียลไทม์ ความล่าช้าที่มากทำให้การสนทนาเหมือนหุ่นยนต์และไม่น่าพึงพอใจในหลายสาขา
แม้จะมีกระแสฮือฮาเกี่ยวกับ LPU ของ Groq แต่คำถามสำคัญคือ LPU ของ Groq เปรียบเทียบกับผลิตภัณฑ์ที่คล้ายกันในการใช้งานจริงได้อย่างไร ซึ่งแตกต่างจาก GPU ของ Nvidia หรือ TPU ของ Google ตรงที่ LPU ของ Groq เป็นชิป AI เฉพาะทางที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพสำหรับงานเฉพาะด้าน แทนที่จะเป็นชิป AI 'อเนกประสงค์'
นอกจากนี้ ยังเป็นช่วงเวลาที่นักพัฒนา AI รายใหญ่กำลังมองหาการพัฒนาชิปของตนเอง เพื่อหลีกเลี่ยงการพึ่งพาผลิตภัณฑ์ของ Nvidia มีรายงานว่า OpenAI กำลังแสวงหาเงินทุนหลายล้านล้านดอลลาร์เพื่อพัฒนาชิปของตนเอง แซม อัลท์แมน ซีอีโอของ OpenAI กำลังพิจารณาสร้างสถาปัตยกรรมชิป AI ใหม่ทั้งหมดตั้งแต่ต้น
(อ้างอิงจาก Cryptoslate)
แหล่งที่มา
การแสดงความคิดเห็น (0)