الأخبار

معيار الذكاء الاصطناعي الجديد يختبر سرعة الاستجابات لاستفسارات المستخدم

أصدرت مجموعة قياس الذكاء الاصطناعي Artificial intelligence benchmarking group MLCommons يوم الأربعاء مجموعة جديدة من الاختبارات والنتائج التي تقيم السرعة التي يمكن بها للأجهزة المتطورة تشغيل تطبيقات الذكاء الاصطناعي والاستجابة للمستخدمين.

يقيس المعياران الجديدان اللذان أضافتهما MLCommons السرعة التي يمكن بها لشرائح وأنظمة الذكاء الاصطناعي توليد استجابات من نماذج الذكاء الاصطناعي القوية المليئة بالبيانات. توضح النتائج تقريبًا مدى سرعة تطبيق الذكاء الاصطناعي مثل ChatGPT في تقديم استجابة لاستعلام المستخدم.

أضاف أحد المعايير الجديدة القدرة على قياس سرعة سيناريو الأسئلة والأجوبة لنماذج اللغات الكبيرة. يُطلق عليها اسم Llama 2، وتتضمن 70 مليار معامل وتم تطويرها بواسطة Meta Platforms.

أضاف مسؤولو MLCommons أيضًا مولدًا ثانيًا لتحويل النص إلى صورة إلى مجموعة أدوات قياس الأداء، يسمى MLPerf، استنادًا إلى نموذج Stable Diffusion XL الخاص بـ Stability AI.

لقد فازت الخوادم التي تعمل بشرائح Nvidia's H100 والتي تم إنشاؤها بواسطة أمثال Alphabet's Google وSupermicro وNvidia نفسها بسهولة بكلا المعيارين الجديدين فيما يتعلق بالأداء الأولي. قدم العديد من منشئي الخوادم تصميمات تعتمد على شريحة L40S الأقل قوة الخاصة بالشركة.

قدمت شركة Krai منشئ الخوادم تصميمًا لمعيار إنشاء الصور باستخدام شريحة Qualcomm AI التي تستهلك طاقة أقل بكثير من معالجات Nvidia المتطورة.

قدمت Intel أيضًا تصميمًا يعتمد على شرائح التسريع Gaudi2 الخاصة بها. ووصفت الشركة النتائج بأنها "صلبة solid".

الأداء الأولي ليس المقياس الوحيد المهم عند نشر تطبيقات الذكاء الاصطناعي. تستهلك شرائح الذكاء الاصطناعي المتقدمة كميات هائلة من الطاقة، وأحد أهم التحديات التي تواجه شركات الذكاء الاصطناعي هو نشر شرائح توفر قدرًا مثاليًا من الأداء بأقل قدر ممكن من الطاقة.

لدى MLCommons فئة مرجعية منفصلة لقياس استهلاك الطاقة.