Amazon to do an Apple, announces shift of Alexa work from Nvidia to Inferentia chips
بعد Apple، تم تعيين Amazon بالكامل للتحول إلى الرقائق الداخلية وأعلنت أن جزءًا من عملها Alexa سيتحول من رقائق Nvidia إلى رقائق Inferentia. هذا سيجعل العمل أسرع وأرخص.
أعلنت Amazon أنها ستنقل جزءًا من عملها الحوسبي للمساعد الصوتي الذكي Alexa إلى رقائقها الداخلية، وفقًا لتقرير في Financial Express. ستشهد هذه الخطوة استخدام Amazon لرقائق Inferentia الخاصة بها بدلاً من رقائق Nvidia التي كانت تستخدمها حتى الآن.
من الواضح أن هذه الخطوة هي أخبار سيئة لشركة Nvidia، لكن بالنسبة إلى Amazon، ستجعل عملهم أرخص وأسرع.
نظرًا لأنه يعمل الآن، عندما يسأل مستخدم Echo سؤالاً من Alexa، يتم تلقي الاستعلام من قبل أحد مراكز البيانات التي أنشأتها Amazon حيث تتم معالجته عبر عدة خطوات. بمجرد أن يستجيب الكمبيوتر للاستعلام، تُترجم الاستجابة إلى كلام مسموع حتى يتمكن Echo من الاستجابة للمستخدم.
تم إجراء هذه المعالجة بواسطة Amazon باستخدام رقائق Nvidia. الآن، سيتم إعادة توجيه معظم أعمال الحوسبة هذه إلى شريحة Amazon المصممة خصيصًا والتي تسمى Inferentia. تم الإعلان عن Inferentia لأول مرة في عام 2018 وتم تصميم الشريحة خصيصًا لتسريع مهام التعلم الآلي مثل التعرف على الصور أو ترجمة النص إلى كلام بأحجام كبيرة.
تعد شركات التكنولوجيا الكبيرة مثل Microsoft و Google و Amazon وغيرها التي تعمل في مجال الحوسبة السحابية من أكبر مشتري شرائح الحوسبة والتي تعد فائدة كبيرة لشركات مثل Intel و Nvidia.
ومع ذلك، الآن، تنتقل العديد من الشركات بعيدًا عن شركات تصنيع الرقائق الخارجية إلى حلولها الداخلية
قبل إعلان Amazon عن تحركها، قدمت شركة Apple شريحة Apple Silicon M1 الخاصة بها وأعلنت عن ثلاثة أجهزة Mac جديدة ستأتي مع M1 بدلاً من رقائق Intel التي كانت تستخدمها حتى الآن.
لقد "بررت" Amazon حركتها بالقول إنها وجدت تحسنًا بنسبة 25% في زمن الانتقال وخفضًا بنسبة 30% في التكلفة عن طريق نقل بعض الأعمال إلى Inferentia.
أعلنت Amazon أنها ستنقل جزءًا من عملها الحوسبي للمساعد الصوتي الذكي Alexa إلى رقائقها الداخلية، وفقًا لتقرير في Financial Express. ستشهد هذه الخطوة استخدام Amazon لرقائق Inferentia الخاصة بها بدلاً من رقائق Nvidia التي كانت تستخدمها حتى الآن.
من الواضح أن هذه الخطوة هي أخبار سيئة لشركة Nvidia، لكن بالنسبة إلى Amazon، ستجعل عملهم أرخص وأسرع.
نظرًا لأنه يعمل الآن، عندما يسأل مستخدم Echo سؤالاً من Alexa، يتم تلقي الاستعلام من قبل أحد مراكز البيانات التي أنشأتها Amazon حيث تتم معالجته عبر عدة خطوات. بمجرد أن يستجيب الكمبيوتر للاستعلام، تُترجم الاستجابة إلى كلام مسموع حتى يتمكن Echo من الاستجابة للمستخدم.
تم إجراء هذه المعالجة بواسطة Amazon باستخدام رقائق Nvidia. الآن، سيتم إعادة توجيه معظم أعمال الحوسبة هذه إلى شريحة Amazon المصممة خصيصًا والتي تسمى Inferentia. تم الإعلان عن Inferentia لأول مرة في عام 2018 وتم تصميم الشريحة خصيصًا لتسريع مهام التعلم الآلي مثل التعرف على الصور أو ترجمة النص إلى كلام بأحجام كبيرة.
تعد شركات التكنولوجيا الكبيرة مثل Microsoft و Google و Amazon وغيرها التي تعمل في مجال الحوسبة السحابية من أكبر مشتري شرائح الحوسبة والتي تعد فائدة كبيرة لشركات مثل Intel و Nvidia.
ومع ذلك، الآن، تنتقل العديد من الشركات بعيدًا عن شركات تصنيع الرقائق الخارجية إلى حلولها الداخلية
قبل إعلان Amazon عن تحركها، قدمت شركة Apple شريحة Apple Silicon M1 الخاصة بها وأعلنت عن ثلاثة أجهزة Mac جديدة ستأتي مع M1 بدلاً من رقائق Intel التي كانت تستخدمها حتى الآن.
لقد "بررت" Amazon حركتها بالقول إنها وجدت تحسنًا بنسبة 25% في زمن الانتقال وخفضًا بنسبة 30% في التكلفة عن طريق نقل بعض الأعمال إلى Inferentia.