الأخبار

شركة Google تقدم ترقيات رئيسية لمنصة Vertex AI الخاصة بها

في قمة Google Cloud Applied ML أمس، كشفت شركة البحث والشركات العملاقة لتكنولوجيا المعلومات عن مجموعة جديدة من ميزات المنتجات والشراكات التقنية المصممة لمساعدة المستخدمين على إنشاء نماذج التعلم الآلي (ML) ونشرها وإدارتها وصيانتها في الإنتاج بشكل أسرع وأكثر كفاءة.

تعد بيئة تطوير الذكاء الاصطناعي الخاصة بالشركة، Vertex AI، التي تم إطلاقها قبل عام في مؤتمر Google I/O 21، القاعدة الرئيسية لجميع التحديثات. هذه منصة ML مُدارة مصممة لتمكين المطورين من تسريع نشر وصيانة نماذج الذكاء الاصطناعي الخاصة بهم.

خدمة التنبؤ من Google
إضافة مركزية جديدة إلى Vertex AI هي خدمة التنبؤ. وفقًا لـ Surbhi Jain مدير منتج Google Vertex AI، تشمل ميزاته ما يلي:

- خدمة التنبؤ، وهي مكون متكامل جديد من Vertex AI: "عندما يكون لدى المستخدمين نموذج تعلم آلي مدرب ويكونون مستعدين لبدء خدمة الطلبات منه، فهذا هو المكان الذي يتم استخدامه فيه. الفكرة هي جعله سلسًا تمامًا لتمكين السلامة وقابلية التوسع. نريد أن نجعل نشر نموذج ML في الإنتاج أمرًا فعالاً من حيث التكلفة، بغض النظر عن مكان تدريب النموذج".

- خدمة مُدارة بالكامل: "التكلفة الإجمالية للخدمة منخفضة لأن Vertex AI خدمة مُدارة بالكامل. هذا يعني أننا نرفع عبء العمليات عليك". قال جاين إن التوسع التلقائي السلس يقلل من الحاجة إلى الإفراط في توفير الأجهزة.

- مجموعة متنوعة من أنواع VM و GPU مع خدمة التنبؤ: تمكن المطورين من اختيار الأجهزة الأكثر فعالية من حيث التكلفة لنموذج معين. "بالإضافة إلى ذلك، لدينا العديد من التحسينات الخاصة بالملكية في الواجهة الخلفية لدينا والتي تعمل على تقليل التكلفة بشكل أكبر مقارنة بالمصادر المفتوحة. قال جاين: "لدينا أيضًا عمليات تكامل عميقة تم إنشاؤها مع أجزاء أخرى من النظام الأساسي".

- التسجيل خارج الصندوق في Stackdriver: التكامل المدمج لتسجيل استجابة الطلب في BigQuery هي مكونات تم إنشاؤها مسبقًا لنشر نماذج من خطوط الأنابيب بشكل منتظم، كما قال جين. قال جين: "ما يشتمل على خدمة التنبؤ هو أيضًا الذكاء والتأكيد، مما يعني أننا نقدم قدرات لتتبع كيفية عمل النموذج بمجرد نشره في الإنتاج، ولكن أيضًا نفهم سبب قيامه بعمل تنبؤات معينة". (بالنسبة إلى السياق: Google Stackdriver هي خدمة مجانية لإدارة أنظمة الحوسبة السحابية، تتطلب بطاقة ائتمان. وهي توفر بيانات الأداء والتشخيص لمستخدمي السحابة العامة).

- الأمان والامتثال المدمجان: قال جاين: "يمكنك نشر النماذج الخاصة بك في محيطك الآمن. تتمتع أداة التحكم في تكامل PCSA (تحليل السلامة قبل الإغلاق pre-closure safety analysis) بإمكانية الوصول إلى نقاط النهاية الخاصة بك وتتم حماية بياناتك في جميع الأوقات. أخيرًا، مع نقاط النهاية الخاصة، تقدم خدمة التنبؤ أقل من ملي ثانية من زمن الانتقال العلوي".

المزيد من القدرات والأدوات
تشمل الإمكانات الجديدة الأخرى التي تمت إضافتها مؤخرًا إلى Vertex AI ما يلي:

- تم إصدار وقت تشغيل TensorFlow المحسن للمعاينة العامة والذي يسمح بتقديم نماذج TensorFlow منخفضة التكلفة وزمن انتقال أقل من حاويات خدمة TensorFlow مفتوحة المصدر مسبقة الإنشاء. قال جاين إن وقت تشغيل TensorFlow المُحسَّن الآن يتيح للمستخدمين الاستفادة من بعض التقنيات الخاصة وتقنيات تحسين النماذج المستخدمة داخليًا في Google.

- أطلقت Google أيضًا إجراءات تنبؤ مخصصة في معاينة خاصة، مما يجعل المعالجة المسبقة لإدخال النموذج والمعالجة اللاحقة لمخرجات النموذج سهلة مثل كتابة دالة Python، كما قال جين. "لقد قمنا أيضًا بدمجه مع Vertex SDK، والذي يسمح للمستخدمين بإنشاء حاوياتهم المخصصة باستخدام أدوات التنبؤ المخصصة الخاصة بهم، دون الحاجة إلى كتابة خادم نموذج أو امتلاك معرفة كبيرة بـ Docker. كما يتيح للمستخدمين اختبار الصور المبنية محليًا بسهولة بالغة. إلى جانب ذلك، أطلقنا أيضًا دعمًا لاستضافة CO لنماذج TensorFlow على نفس الجهاز الظاهري. قال جاين هذا أيضًا في المعاينة الخاصة في الوقت الحالي.

ملاحظات إخبارية أخرى:
- أصدرت Google خادم Vertex AI لتقليل التدريب، والذي يدعم كلاً من Tensorflow و PyTorch. تم تصميم خادم تقليل التدريب لتحسين النطاق الترددي وزمن الانتقال للتدريب الموزع متعدد النقاط على وحدات معالجة الرسومات Nvidia. تدعي Google أن هذا يقلل بشكل كبير من وقت التدريب المطلوب لأعباء العمل اللغوية الكبيرة، مثل BERT، كما أنه يتيح التكافؤ في التكلفة عبر الأساليب المختلفة. في العديد من سيناريوهات الأعمال ذات المهام الحرجة، تسمح دورة التدريب المختصرة لعلماء البيانات بتدريب نموذج بأداء تنبؤي أعلى ضمن قيود نافذة النشر.

- أطلقت الشركة معاينة لـ Vertex AI Tabular Workflows، والتي تتضمن Glassbox وخط أنابيب AutoML مُدار يتيح لك رؤية وتفسير كل خطوة في عملية بناء النموذج ونشره. يمكن للمستخدمين ظاهريًا تدريب مجموعات بيانات تزيد عن تيرابايت دون التضحية بالدقة، من خلال انتقاء واختيار أجزاء العملية التي يريدون أن يتعامل معها AutoML، مقابل الأجزاء التي يريدون هندستها بأنفسهم. Glassbox هي شركة برمجيات تبيع برامج وخدمات تحليلات إعادة تشغيل الجلسة.
- أعلنت Google عن معاينة Serverless Spark on Vertex AI Workbench. يسمح هذا لعلماء البيانات بإطلاق جلسة شرارة بدون خادم داخل دفاتر ملاحظاتهم وتطوير التعليمات البرمجية بشكل تفاعلي.

بيانات الرسم البياني من Google
في مساحة بيانات الرسم البياني، قدمت Google شراكة بيانات مع Neo4j التي تربط نماذج التعلم الآلي القائمة على الرسم البياني. يتيح ذلك لعلماء البيانات استكشاف الميزات من البيانات المتصلة في Neo4j وتحليلها وهندستها، ثم نشر النماذج باستخدام Vertex AI، كل ذلك ضمن نظام أساسي واحد موحد. باستخدام Neo4j Graph Data Science و Vertex AI، يمكن لعلماء البيانات استخراج المزيد من القوة التنبؤية من النماذج التي تستخدم المدخلات القائمة على الرسم البياني والوصول إلى الإنتاج بشكل أسرع عبر حالات الاستخدام مثل اكتشاف الاحتيال والشذوذ ومحركات التوصية والعميل 360 والخدمات اللوجستية والمزيد.

تم أيضًا دمج Google Vertex AI مع صانع قاعدة بيانات الرسوم البيانية TigerGraph لعدة أشهر ؛ إنها جزء أساسي من عرض طاولة عمل التعلم الآلي (ML) للشركة.

أخيرًا، سلطت Google الضوء على شراكتها مع Labelbox، والتي تدور حول مساعدة علماء البيانات على استخدام البيانات غير المهيكلة لبناء نماذج تعلم آلي أكثر فاعلية على Vertex AI.

تدعي Google أن Vertex AI يتطلب حوالي 80% أقل من سطور التعليمات البرمجية لتدريب نموذج مقابل الأنظمة الأساسية التنافسية، مما يتيح لعلماء البيانات ومهندسي ML عبر جميع مستويات الخبرة القدرة على تنفيذ عمليات التعلم الآلي (MLops) لبناء وإدارة مشاريع التعلم الآلي بكفاءة في جميع أنحاء دورة حياة التطوير بأكملها.

تتنافس Vertex في نفس السوق مثل Matlab و Alteryx Designer و IBM SPSS Statistics و RapidMiner Studio و Dataiku و DataRobot Studio، وفقًا لـ Gartner Research.