الأخبار

كيفية مساعدة البشر على فهم الروبوتات

غالبًا ما يركز العلماء الذين يدرسون التفاعل بين الإنسان والروبوت human-robot interaction على فهم نوايا الإنسان من منظور الروبوت، لذلك يتعلم الروبوت التعاون مع الناس بشكل أكثر فعالية. لكن التفاعل بين الإنسان والروبوت هو طريق ذو اتجاهين، ويحتاج الإنسان أيضًا إلى تعلم كيف يتصرف الروبوت.

بفضل عقود من العلوم المعرفية وبحوث علم النفس التربوي، يتمتع العلماء بمعرفة جيدة حول كيفية تعلم البشر لمفاهيم جديدة. لذلك، تعاون الباحثون في معهد ماساتشوستس للتكنولوجيا وجامعة هارفارد لتطبيق نظريات راسخة لتعلم المفهوم البشري للتحديات في التفاعل بين الإنسان والروبوت.

قاموا بفحص الدراسات السابقة التي ركزت على البشر الذين يحاولون تعليم الروبوتات سلوكيات جديدة. حدد الباحثون الفرص التي كان من الممكن أن تدمج فيها هذه الدراسات عناصر من نظريتين علميتين تكميليتين في منهجياتهم. استخدموا أمثلة من هذه الأعمال لإظهار كيف يمكن للنظريات أن تساعد البشر على تشكيل نماذج مفاهيمية للروبوتات بشكل أسرع وأكثر دقة ومرونة، والتي يمكن أن تحسن فهمهم لسلوك الروبوت.

تقول Serena Booth، طالبة الدراسات العليا في مجموعة الروبوتات التفاعلية في معمل علوم الكمبيوتر والذكاء الاصطناعي (CSAIL) Computer Science and Artificial Intelligence Laboratory، والمؤلف الرئيسي للورقة.

تقول Booth: "سواء حاولنا مساعدة الناس على بناء نماذج مفاهيمية للروبوتات أم لا ، فسوف يقومون ببنائها على أي حال. وقد تكون هذه النماذج المفاهيمية خاطئة. يمكن أن يعرض هذا الأشخاص لخطر جسيم. من المهم أن نستخدم كل ما في وسعنا لمنح هذا الشخص أفضل نموذج عقلي يمكنهم بناءه".

شاركت Booth ومشرفتها، Julie Shah,، أستاذة الطيران والملاحة الفضائية في معهد ماساتشوستس للتكنولوجيا ومديرة مجموعة الروبوتات التفاعلية MIT professor of aeronautics and astronautics and the director of the Interactive Robotics Group، في تأليف هذه الورقة بالتعاون مع باحثين من جامعة هارفارد Harvard. إيلينا غلاسمان Elena Glassman '08, MNG '11, Ph.D. '16، الأستاذ المساعد لعلوم الكمبيوتر في كلية جون إيه بولسون للهندسة والعلوم التطبيقية بجامعة هارفارد، ولديها خبرة في نظريات التعلم والتفاعل بين الإنسان والحاسوب، المستشار الرئيسي للمشروع. ومن بين المؤلفين المشاركين في جامعة هارفارد أيضًا طالبة الدراسات العليا Sanjana Sharma ومساعدة الأبحاث Sarah Chung. سيتم تقديم البحث في مؤتمر IEEE حول التفاعل بين الإنسان والروبوت.

نهج نظري A theoretical approach
قام الباحثون بتحليل 35 ورقة بحثية حول تعليم الإنسان الآلي باستخدام نظريتين رئيسيتين. تقترح "نظرية التحويل التناظري analogical transfer theory" أن البشر يتعلمون عن طريق القياس. عندما يتفاعل الإنسان مع مجال أو مفهوم جديد، فإنهم يبحثون ضمنيًا عن شيء مألوف يمكنهم استخدامه لفهم الكيان الجديد.

تجادل "نظرية التباين في التعلم variation theory of learning" بأن التباين الاستراتيجي يمكن أن يكشف عن مفاهيم قد يصعب على الشخص تمييزها بطريقة أخرى. يقترح أن يمر البشر بعملية من أربع خطوات عندما يتفاعلون مع مفهوم جديد: التكرار، والتباين، والتعميم، والاختلاف.

في حين أن العديد من الأوراق البحثية تضمنت عناصر جزئية لنظرية واحدة، كان هذا على الأرجح بسبب الصدفة، كما يقول بوث. لو استشار الباحثون هذه النظريات في بداية عملهم، فربما تمكنوا من تصميم تجارب أكثر فاعلية.

على سبيل المثال، عند تعليم البشر التفاعل مع الروبوت، غالبًا ما يعرض الباحثون للناس العديد من الأمثلة على الروبوت الذي يؤدي نفس المهمة. ولكن بالنسبة للأشخاص لبناء نموذج عقلي دقيق لهذا الروبوت، تقترح نظرية التباين أنهم بحاجة إلى رؤية مجموعة من الأمثلة على الروبوت الذي يؤدي المهمة في بيئات مختلفة، كما يحتاجون أيضًا إلى رؤيته يرتكب أخطاء.

تقول Booth: "إنه أمر نادر جدًا في أدبيات التفاعل بين الإنسان والروبوت لأنه مخالف للبديهة، ولكن يحتاج الناس أيضًا إلى رؤية أمثلة سلبية لفهم ما ليس عليه الروبوت".

يمكن لنظريات العلوم المعرفية هذه أيضًا تحسين تصميم الروبوت المادي. يوضح بوث أنه إذا كانت الذراع الروبوتية تشبه ذراعًا بشرية ولكنها تتحرك بطرق مختلفة عن حركة الإنسان، فسيواجه الناس صعوبة في بناء نماذج عقلية دقيقة للروبوت. كما اقترحت نظرية النقل التناظرية، لأن الناس يرسمون ما يعرفونه - الذراع البشرية - للذراع الروبوتية، إذا لم تتطابق الحركة، يمكن أن يصاب الناس بالارتباك ويواجهون صعوبة في تعلم كيفية التفاعل مع الروبوت.

تعزيز التفسيرات Enhancing explanations
كما درست Booth ومعاونوها كيف يمكن لنظريات تعلم مفهوم الإنسان أن تحسن التفسيرات التي تسعى إلى مساعدة الناس على بناء الثقة في الروبوتات الجديدة غير المألوفة.

"في القابلية للتفسير، لدينا مشكلة كبيرة حقًا تتعلق بالتحيز التأكيدي. لا توجد عادةً معايير حول ماهية التفسير وكيف يجب أن يستخدمه الشخص. بصفتنا باحثين، غالبًا ما نصمم طريقة شرح، تبدو جيدة بالنسبة لنا، ونحن اشحنها "، كما تقول.

بدلاً من ذلك، يقترحون أن يستخدم الباحثون نظريات من تعلم المفهوم البشري للتفكير في كيفية استخدام الناس للتفسيرات، والتي غالبًا ما يتم إنشاؤها بواسطة الروبوتات لتوصيل السياسات التي يستخدمونها لاتخاذ القرارات بوضوح. من خلال توفير منهج يساعد المستخدم على فهم معنى طريقة التفسير ومتى يتم استخدامه، ولكن أيضًا في الحالات التي لا تنطبق فيها، سيطورون فهمًا أقوى لسلوك الروبوت، كما يقول بوث.

بناءً على تحليلهم، يقدمون عددًا من التوصيات حول كيفية تحسين البحث في تعليم الإنسان الآلي. على سبيل المثال، يقترحون أن يقوم الباحثون بدمج نظرية التحويل التناظرية عن طريق توجيه الناس لإجراء مقارنات مناسبة عندما يتعلمون العمل مع روبوت جديد. يقول بوث إن تقديم التوجيه يمكن أن يضمن أن الناس يستخدمون المقارنات المناسبة حتى لا يفاجأوا أو يرتبكوا من تصرفات الروبوت.

يقترحون أيضًا أن تضمين أمثلة إيجابية وسلبية لسلوك الروبوت، وتعريض المستخدمين لكيفية تأثير الاختلافات الاستراتيجية للمعلمات في "سياسة" الروبوت على سلوكه، في نهاية المطاف عبر بيئات متنوعة استراتيجيًا، يمكن أن يساعد البشر على التعلم بشكل أفضل وأسرع. سياسة الروبوت هي وظيفة رياضية تعين الاحتمالات لكل إجراء يمكن أن يتخذه الروبوت.

يقول Glassman: "لقد أجرينا دراسات على المستخدمين لسنوات، لكننا كنا نطلق النار من الورك من حيث حدسنا بقدر ما قد يكون مفيدًا أو لا يكون مفيدًا لإظهار الإنسان. ستكون الخطوة التالية هي أن نكون أكثر صرامة حول تأسيس هذا العمل في نظريات الإدراك البشري".

الآن وقد اكتملت مراجعة الأدبيات الأولية هذه باستخدام نظريات العلوم المعرفية، تخطط بوث لاختبار توصياتهم من خلال إعادة بناء بعض التجارب التي درستها ومعرفة ما إذا كانت النظريات تحسن التعلم البشري بالفعل.