الأخبار

أمازون تعمل على شريحتين مخصصتين للذكاء الاصطناعي لتدريب نماذج اللغة الكبيرة في AWS

على مدار الأشهر العديدة الماضية، تصدرت شركات مثل Microsoft و Google و OpenAI و NVIDIA عناوين الأخبار لجهودها في تطوير خدمات أجهزة وبرامج الذكاء الاصطناعي التوليدية (Generative AI hardware and software services). تحاول إحدى شركات التكنولوجيا الكبرى، أمازون، الدخول في محادثة الذكاء الاصطناعي أيضًا.

ذكرت CNBC أن قسم Amazon Web Services يعمل على شريحتين مخصصتين، Inferentia و Trainium، وتأمل أن تنافس تلك التي صنعتها NVIDIA مع رقائق Grace Hopper الفائقة لتدريب نماذج اللغة الكبيرة. أعلنت NVIDIA للتو عن منصة Grace Hopper من الجيل التالي والتي يجب أن تكون متاحة في عام 2024.

AWS ليست غريبة على صنع شرائح مخصصة. لقد بدأت منذ 10 سنوات مع Nitro، وتقول أمازون إن هناك الآن شريحة Nitro واحدة على الأقل في كل خادم من خوادم AWS الخاصة بها.

حاليًا، في مكاتبها في أوستن، تكساس، تعمل أمازون على إصدارات جديدة من رقائق Trainium و Inferential. هذا هو حل الشركة لمنح العملاء طريقة لتدريب AI LLMs التوليدية الخاصة بهم على خوادم AWS، باستخدام رقائق من Amazon، دون الحاجة إلى استخدام أجهزة تعتمد على NVIDIA.

تقول أمازون إن إحدى أكبر مزاياها هي أن AWS يستخدمها بالفعل ملايين العملاء الذين اعتادوا على الخوادم وأدواتهم. صرحت Mai-Lan Tomsen Bukovec، نائب الرئيس للتكنولوجيا في AWS:
 

إنها مسألة سرعة. مدى السرعة التي يمكن أن تتحرك بها هذه الشركات لتطوير تطبيقات الذكاء الاصطناعي التوليدية هذه مدفوع بالبدء أولاً بالبيانات الموجودة لديها في AWS واستخدام أدوات الحوسبة والتعلم الآلي التي نقدمها.

 
بينما تحاول أمازون صنع شرائحها الخاصة لتدريب LLMs، فإنها تستخدم أيضًا بعض شرائح NVIDIA لنفس الغرض في خوادم AWS الخاصة بها. في يوليو، أعلنت أن مثيلات Amazon EC2 P5 متاحة لمستخدمي AWS. يتم تشغيل هذه الخوادم بواسطة وحدات معالجة الرسومات NVIDIA H100 Tensor Core.

صرحت أمازون لـ CNBC أن "أكثر من 100000" من عملائها كانوا يستخدمون AWS للتعلم الآلي. على الرغم من أن هذا يمثل جزءًا بسيطًا من قاعدة عملاء AWS الإجمالية للشركة، إلا أن المزيد والمزيد منهم يمكن أن يبدأوا في استخدام حل Amazon مع توسع الذكاء الاصطناعي التوليدي ليشمل المزيد من الصناعات.