الأخبار

شركة Google تطلق شريحة "Axion" المتقدمة القائمة على Arm

كشفت شركة جوجل النقاب عن تفاصيل إصدار جديد من رقائق الذكاء الاصطناعي لمركز البيانات الخاص بها وأعلنت عن معالج مركزي قائم على Arm.

معالج Arm هو نوع من وحدات المعالجة المركزية (CPU) يستخدم بنية RISC، مما يبسط التعليمات التي يتعين على الكمبيوتر معالجتها. تعد وحدات معالجة Tensor (TPUs) من Google واحدة من البدائل الوحيدة لرقائق الذكاء الاصطناعي المتطورة من Nvidia. ومع ذلك، لا يمكن للمطورين استخدامها إلا عبر Cloud Platform من Google ولا يمكنهم شرائها مباشرة.

ومع ذلك، ستدعم وحدة المعالجة المركزية Axion الجديدة من Google أولاً عمليات الذكاء الاصطناعي للشركة قبل أن تصبح متاحة لعملاء Google Cloud التجاريين في وقت لاحق من هذا العام. وذكرت الشركة أن أداءها أفضل من أداء شرائح x86 وشرائح Arm ذات الأغراض العامة في السحابة. سيتم استخدام شرائح Axion لتشغيل إعلانات YouTube، وتشغيل محرك Google Earth، ودعم العديد من خدمات Google الأخرى.
1111111111111
ستوفر وحدة المعالجة المركزية Axion المستندة إلى Arm أداءً محسنًا بنسبة 30% مقارنة بـ "رقائق Arm ذات الأغراض العامة" وتتفوق في الأداء على معالجات Intel الحالية بنسبة 50%.

وقال مارك لومير، نائب رئيس Google Cloud والمدير العام للبنية التحتية للحوسبة والتعلم الآلي، لرويترز: “نحن نسهل على العملاء جلب أعباء العمل الحالية الخاصة بهم إلى Arm”. "تم بناء Axion على أسس مفتوحة ولكن العملاء الذين يستخدمون Arm في أي مكان يمكنهم بسهولة اعتماد Axion دون إعادة تصميم تطبيقاتهم أو إعادة كتابتها".

صرح Lohmeyer أيضًا في إحدى المدونات أن عملاق التكنولوجيا يعمل على تحسين شرائح TPU AI الخاصة به: "TPU v5p هو مسرع من الجيل التالي تم تصميمه خصيصًا لتدريب بعض نماذج الذكاء الاصطناعي الأكبر والأكثر تطلبًا". أعلنت شركة Alphabet التابعة أن شريحة TPU v5p الجديدة مصممة للعمل في كبسولات تحتوي على 8960 شريحة، مما يوفر ضعف الأداء الخام لجيل TPU السابق. يتوفر TPU v5p بالفعل عبر سحابة Google.

ميزات بنية الحوسبة السحابية الجديدة للذكاء الاصطناعي من Google
صرحت Google بأنها أجرت تحسينات كبيرة على بنية الكمبيوتر الفائق (hypercomputer architecture)، مع التركيز على تحسينات الأداء للأجهزة. يتضمن ذلك التوفر العام لأجهزة Cloud TPU v5p وA3 Mega VMs، والتي يتم تشغيلها بواسطة وحدات معالجة الرسوميات NVIDIA H100 Tensor Core. يقال إن هذه التحديثات توفر أداءً أعلى للتدريب واسع النطاق وتأتي مع إمكانات ربط شبكية محسنة.

لقد قامت بتحسين محفظة التخزين الخاصة بها لأعباء عمل الذكاء الاصطناعي من خلال تقديم Hyperdisk ML، وهي خدمة تخزين كتلية جديدة مصممة لأحمال عمل الاستدلال/ الخدمة للذكاء الاصطناعي (AI inference/serving workloads). كما تم تقديم إمكانات جديدة للتخزين المؤقت في Cloud Storage FUSE وParallelstore، مما أدى إلى تحسين التدريب والاستدلال على الإنتاجية ووقت الاستجابة.

على صعيد البرمجيات، قدمت جوجل العديد من التطورات مفتوحة المصدر. يتضمن ذلك JetStream، وهو محرك استدلال محسّن للإنتاجية والذاكرة لنماذج اللغات الكبيرة (LLMs)، والذي يوفر أداءً أعلى لكل دولار في النماذج المفتوحة مثل Gemma 7B.

تقدم Google أيضًا خيارات استهلاك مرنة جديدة لتلبية احتياجات أعباء العمل المتنوعة بشكل أفضل. يتضمن ذلك برنامج جدولة عبء العمل الديناميكي، الذي يتميز بوضع التقويم لضمان وقت البدء ووضع البدء المرن المصمم لتحقيق اقتصاديات محسنة، مما يزيد من تعزيز كفاءة ومرونة عروض الحوسبة السحابية من Google.