الأخبار

تسريع التعلم الآلي (ML) وتطوير الذكاء الاصطناعي (AI) مع الأداء والتكلفة المحسنين هدف رئيسي لشركة Google

بدأت Google مؤتمرها القادم 2022 هذا الأسبوع بسلسلة من الإعلانات حول قدرات الذكاء الاصطناعي الجديدة في نظامها الأساسي، بما في ذلك رؤية الكمبيوتر كخدمة مع رؤية Vertex AI ومبادرة OpenXLA الجديدة لـ ML مفتوحة المصدر. في جلسة في الحدث التالي 2022، ناقش Mikhail Chrestkha مدير المنتجات الخارجية في Google Cloud تحسينات إضافية للذكاء الاصطناعي بما في ذلك دعم إطار عمل نظام التوصية Nvidia Merlin، والاستدلال الدفعي AlphaFold بالإضافة إلى دعم TabNet.

قال Chrestkha: "أصبح الوصول إلى بنية تحتية قوية للذكاء الاصطناعي ميزة تنافسية للحصول على أقصى قيمة من الذكاء الاصطناعي".

شركة Uber تستخدم TabNet لتحسين توصيل الطعام
TabNet هو نهج تعلم البيانات الجدولية العميق (deep tabular data learning approach) الذي يستخدم تقنيات المحولات للمساعدة في تحسين السرعة والملاءمة.

أوضح Chrestkha أن TabNet متاح الآن في منصة Google Vertex AI، مما يسهل على المستخدمين بناء نماذج قابلة للتفسير على نطاق واسع. وأشار إلى أن تطبيق Google لـ TabNet سيحدد تلقائيًا تحويلات الميزات المناسبة بناءً على بيانات الإدخال وحجم البيانات ونوع التوقع للحصول على أفضل النتائج.

TabNet ليس نهجًا نظريًا لتحسين تنبؤات الذكاء الاصطناعي، إنه نهج يظهر نتائج إيجابية في حالات الاستخدام الواقعية بالفعل. من بين أوائل المنفذين لتطبيق TabNet هو Uber.

أوضح كاي وانج، كبير مديري المنتجات في أوبر، أن المنصة التي أنشأتها شركته والتي تسمى Michelangelo تتعامل مع 100% من حالات استخدام ML في Uber اليوم. تتضمن حالات الاستخدام هذه الوقت المقدر للوصول (ETA) estimated time of arrival، والوقت المقدر لـ UberEats للتسليم (ETD) estimated time to delivery بالإضافة إلى مطابقة الراكب والسائق.

تتمثل الفكرة الأساسية وراء Michelangelo في تزويد مطوري ML في Uber بالبنية التحتية التي يمكن نشر النماذج عليها. قال وانغ إن أوبر تقوم باستمرار بتقييم ودمج مكونات الجهات الخارجية، بينما تستثمر بشكل انتقائي في مجالات المنصات الرئيسية للبناء داخليًا. يعد Vertex AI أحد أدوات الطرف الثالث التأسيسية التي تعتمد عليها Uber، للمساعدة في دعم تدريب تعلم الآلة.

وأشار وانغ إلى أن أوبر كانت تقيم TabNet مع حالات الاستخدام الواقعية لـ Uber. أحد أمثلة حالات الاستخدام هو نموذج وقت التحضير الخاص بـ UberEat، والذي يُستخدم لتقدير الوقت الذي يستغرقه المطعم لإعداد الطعام بعد استلام الطلب. أكد وانغ أن نموذج وقت التحضير هو أحد النماذج الأكثر أهمية المستخدمة في UberEats اليوم.

قال وانغ: "لقد قارنا نتائج TabNet بالنموذج الأساسي وأظهر نموذج TabNet ارتفاعًا كبيرًا فيما يتعلق بأداء النموذج".

يطور Cohere الأنظمة الأساسية التي تساعد المؤسسات على الاستفادة من إمكانات معالجة اللغة الطبيعية (NLP) natural language processing التي يتم تمكينها بواسطة نماذج اللغات الكبيرة (LLMs) large language models.

يستفيد Cohere أيضًا من ابتكارات Google للذكاء الاصطناعي. أوضح سيدهارتا كامالاكارا، مهندس التعلم الآلي في Cohere، أن شركته قامت ببناء إطار تدريب ML خاص بها يسمى FAX، والذي يستخدم الآن بشكل كبير رقائق تسريع TPUv4 AI من Google Cloud. وأوضح أن مهمة FAX تتمثل في استهلاك مليارات الرموز وتدريب النماذج الصغيرة مثل مئات الملايين إلى مئات المليارات من المعا ملات (parameters).

قال Kamalakara: "تعتبر حواسب TPUv4 من أقوى حواسيب الذكاء الاصطناعي العملاقة في العالم، وتحتوي حافظة V4 الكاملة على 4096 شريحة". "يتيح لنا TPUv4 تدريب نماذج اللغات الكبيرة بسرعة كبيرة وتقديم هذه التحسينات للعملاء على الفور".