الأخبار

شركة Google تعمل على نظارات الواقع المعزز من لغة إلى نص. إنها فكرة معقدة

يبدو أن Google تعمل على نظارات الواقع المعزز AR glasses مرة أخرى، لكنها تعرض هذه المرة ميزة جديدة تترجم الكلام إلى نص يمكن قراءته.

في الأسبوع الماضي في مؤتمر Google I / O 2022، عرضت الشركة نموذجًا أوليًا لنظارات الواقع المعزز يمكنه ترجمة اللغة المنطوقة إلى نص عرض قابل للقراءة. لم يلمح Google إلى ما إذا كانوا يطورون هذه المنتجات كمنتج، أو متى، ولكن حقيقة أنهم أظهروها للمطورين تدل على أنهم يفكرون في كيفية توسيع نموذج نظارات الواقع المعزز للاستفادة من مجموعات البيانات الضخمة والتقنيات الحالية.

إذا تحركت Google إلى الأمام مع المنتج، فمن المحتمل أنها ستضعه في إطار كجهاز يحاول كسر حواجز اللغة. يبدو رائعا، أليس كذلك؟ لا مزيد من محاولة العثور على ترجمة Google على الويب واختيار العبارات في هواتفنا المحمولة لترجمة الأشياء. عندما (أو إذا) تصل هذه إلى السوق، سنتمكن أخيرًا من قراءة اللافتات الأجنبية وطلبها بشكل صحيح في المطاعم وحتى تكوين صداقات جديدة بسهولة أكبر عندما نسافر. والأهم من ذلك، أنه ستكون هناك طريقة لترجمة الاتصالات بسرعة في حالة الطوارئ، عندما لا يتحدث جميع الأشخاص نفس اللغة. على مستوى آخر، يمكن أن تفتح "نظارات الترجمة translation glasses" أيضًا قنوات اتصال لمجتمع الصم وضعاف السمع، مما يمنحهم طريقة جديدة للتواصل مع من حولهم.

ومع ذلك، كما هو الحال مع جميع الأفكار التقنية الجديدة، يمكن أن تأتي نظارات الترجمة من Google بتكلفة اجتماعية ضخمة: لخصوصيتنا ورفاهيتنا وتعاوننا مع بعضنا البعض في مجتمعاتنا. ماذا يعني أن تصبح Google هي المترجم لحياتنا، وهل نحن مرتاحون لهذه الفكرة؟

تكمن مشكلة أي نوع من أجهزة الترجمة التقنية في أنه يتعين عليه "الاستماع listen" لمن حوله للحصول على البيانات المراد ترجمتها. وإذا كانت نظارات الواقع المعزز تستمع، فسنحتاج إلى معرفة ماذا أو من يستمعون- ومتى يستمعون. في الوقت الحالي، لا نعرف ما إذا كانت هذه النظارات ستكون قادرة على التمييز بين أكثر من شخص في نفس الوقت أم لا. أيضًا، سنحتاج إلى معرفة ما إذا كان من القانوني أن تستمع هذه النظارات دون موافقة- وإذا احتاج المرء إلى موافقة شخص ما لتسجيلها من أجل ترجمتها، فهل يحتاج المرء إلى النظارات لترجمة الموافقة؟ لا نعرف ما إذا كانت هذه النظارات ستتمتع في المستقبل بالقدرة على تسجيل ما تترجمه، ولن نعرف ما إذا كان بإمكانها تحديد من يقومون بالتسجيل في أي وقت، أو ضمن النطاق الذي يمكنهم الاستماع إليه. وإذا كانوا يسجلون النظارات، أو حتى مع النص المكتوب، فسنحتاج إلى معرفة ما إذا كان ذلك مخزنًا في مكان ما يمكن محوه، وما إذا كان بإمكان الأشخاص إلغاء الاشتراك في مكان عام دون تسجيلهم أثناء القيام بذلك.

لنفترض في الوقت الحالي أن نظارات Google هذه لن تسجلنا، وأن Google تمكنت من معرفة الموافقة والإذن. بالنظر إلى ذلك، في عالمنا المزدحم والصاخب، يمكن أن تظل المشاكل المعتادة المتعلقة بالكلام إلى نص كثيرة في شكل سوء تفاهم وتحريفات، وما إلى ذلك، في ما "تسمعه" Google وما تكتبه كنتيجة لتلك السمع. قد تحتوي التقنية أيضًا على الكثير من الأخطاء الإملائية والارتباك عند خلط اللغات. فإن العديد منا "تبديل الكود code switch" باستخدام كلمات من العديد من اللغات المختلفة تتخللها، مع التعقيد الإضافي المتمثل في عدم قراءتها جميعًا من اليسار إلى اليمين، الأمر الذي سيحتاج إلى التكيف أيضًا.

أضف الآن إلى ذلك إجمالي عدد السكان باستخدام هؤلاء أثناء التجول، والذي يستدعي الكثير مما كتبته مع الدكتورة Catherine Flick حول نظارات Meta قبل Ray-Ban Stories Project Aria. لا تزال العديد من المشكلات نفسها قائمة، باستثناء ما يتعلق بنظارات Google الجديدة هذه، فقد يتجول الأشخاص ويقرأون النصوص، والتي تشبه مرة أخرى ما كان يحدث في الأيام الأولى للهواتف المحمولة وانقسام الانتباه، مما يؤدي إلى نتائج خطيرة محتملة عندما يسير المشتتون في حركة المرور أو يسقطون في النوافير.

أحد الاهتمامات الرئيسية المتعلقة بالنظارات هو افتراض Google الظاهري هنا بأن التكنولوجيا يمكن أن تحل المشكلات الثقافية - وأنه إذا لم تنجح التكنولوجيا، فإن الحل هو تطوير وتطبيق المزيد من التكنولوجيا. في هذه الحالة، لا يمكن حل مشاكل التواصل بين الثقافات بشكل كامل من خلال ترجمة اللغة. يمكن للتكنولوجيا أن تساعد، لكن هذه النظارات لن تترجم الثقافة أو المعايير الثقافية، مثل ما إذا كان شخص ما مرتاحًا لكونه مباشرًا أو غير مباشر، أو أي واحد من العديد من الفروق الدقيقة والإشارات الثقافية الموجودة في الطرق التي يتواصل بها الأشخاص المختلفون في مجموعات مختلفة مع بعضهم البعض . من أجل ذلك، نحتاج إلى بشر آخرين لإرشادنا.