أصبحت شريحة الذكاء الاصطناعي المخصصة LPU التي طورتها شركة Groq بمثابة ضجة كبيرة على وسائل التواصل الاجتماعي بين عشية وضحاها، حيث انتشرت اختباراتها المعيارية العامة على منصة التواصل الاجتماعي X.
تزعم شركة Groq أنها تقدم "أسرع نماذج معالجة اللغة الطبيعية في العالم "، وتشير الاختبارات المستقلة المكثفة إلى أن هذا الادعاء قد يكون دقيقًا.
تُصنّع شركة Groq شريحة ذكاء اصطناعي مخصصة تُسمى وحدة معالجة اللغة (LPU)، ويُقال إنها أسرع من وحدات معالجة الرسومات من Nvidia. تُعتبر وحدات معالجة الرسومات من Nvidia عادةً المعيار الصناعي لتشغيل نماذج الذكاء الاصطناعي، لكن النتائج الأولية تُشير إلى أن وحدات معالجة اللغة ستتفوق عليها، على الأقل في المهام التي تتطلب سرعة عالية.
في جوهرها، تُعدّ شريحة وحدة معالجة البيانات (LPU) من Groq بمثابة "محرك حوسبة" يُمكّن روبوتات الدردشة مثل ChatGPT وGemini من العمل بسرعات استقبال واستجابة فائقة. في الاختبارات التي أُجريت، تفوّق روبوت الدردشة المُزوّد بوحدة معالجة البيانات (LPU) على ثمانية روبوتات دردشة تستخدم شرائح ذكاء اصطناعي أخرى في العديد من مقاييس الأداء الرئيسية، بما في ذلك زمن الوصول مقابل الإنتاجية وإجمالي زمن الاستجابة. وقد تجلّى الأداء المتفوق لوحدة معالجة البيانات (LPU) بشكل أوضح عند اختباره مع نموذج Llama 2-70b من Meta.
وفقًا لاختبارات مستقلة أجرتها شركة Artificial Analysis، يمكن لروبوتات الدردشة التي تستخدم شرائح LPU تحقيق معدل معالجة يبلغ 247 رمزًا في الثانية. للمقارنة، لا يحقق ChatGPT من OpenAI حاليًا سوى معدل معالجة أقصى يبلغ 18 رمزًا في الثانية. هذا يعني أن ChatGPT قد يكون أسرع بثلاث عشرة مرة عند استخدام شرائح Groq، مع أن هذا يعتمد على عوامل أخرى ذات صلة.
وفقًا للتحليل الاصطناعي، قد يفتح هذا المستوى من الأداء آفاقًا جديدة لنماذج اللغات الكبيرة (LLMs) عبر مجموعة واسعة من المجالات. تستطيع روبوتات الدردشة التي تستخدم شرائح LPU من Groq توليد مئات الكلمات في جزء من الثانية، مما يسمح للمستخدمين بأداء المهام آنيًا. في أحد الاختبارات، أرشد جوناثان روس، مؤسس Groq ورئيسها التنفيذي، مذيع قناة CNN خلال محادثة شفهية مباشرة مع روبوت دردشة ذكي في الجانب الآخر من العالم.
يمكن أن تكون روبوتات الدردشة الذكية، مثل ChatGPT وGemini وLlama، أكثر فائدة بكثير إذا استجابت بشكل أسرع. من أبرز عيوبها حاليًا عدم قدرتها على مواكبة الكلام البشري في الوقت الفعلي. هذا التأخير الكبير يجعل المحادثة آلية وغير مرضية في العديد من المجالات.
على الرغم من الضجة المحيطة بوحدة معالجة الرسومات (LPU) من Groq، فإن السؤال المُلحّ هو كيف تُقارن بمنتجات مماثلة في التطبيقات العملية. على عكس وحدة معالجة الرسومات (GPU) من Nvidia أو وحدة معالجة الرسومات (TPU) من Google، فإن وحدة معالجة الرسومات (LPU) من Groq هي شريحة ذكاء اصطناعي مُتخصصة، مُصممة لتحسين أداء مهام مُحددة، وليست شريحة ذكاء اصطناعي "متعددة الأغراض".
علاوة على ذلك، يتطلع كبار مطوري الذكاء الاصطناعي في هذا الوقت إلى تطوير رقائقهم الخاصة لتجنب الاعتماد على منتجات إنفيديا. ويُقال إن شركة OpenAI تسعى للحصول على تمويل بتريليونات الدولارات لتطوير رقائقها الخاصة. حتى أن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، يفكر في إعادة بناء بنية رقاقة ذكاء اصطناعي جديدة كليًا من الصفر.
(وفقا لـ Cryptoslate)
[إعلان 2]
مصدر
تعليق (0)