الأخبار

تحسين عملية صنع القرار في LLMs: نهجان معاصران

أظهرت نماذج اللغات الكبيرة الناشئة (LLMs) Large Language Models مثل ChatGPT من OpenAI (وخاصة نسختها الأحدث، GPT-4)، وClaude AI، وGemini، محدودية عملية صنع القرار. في هذه المقالة، سنناقش الأبحاث المعاصرة المتعلقة باتخاذ القرار من قبل نماذج اللغات الكبيرة وما يمكن أن يعنيه ذلك بالنسبة لمستقبلهم.

تقليديا، يشير اتخاذ القرار الفعال في LLMs إلى استنتاج الأنماط أو القواعد الأساسية وتطبيقها بشكل مرن ومناسب على سيناريوهات جديدة لاتخاذ القرار. أشارت تجربة أجراها معهد سانتا في إلى أن LLMs، بما في ذلك ChatGPT، لم يتمكنوا من "التفكير في المفاهيم الرئيسية الأساسية". يعتمد اتخاذ قرارات مدروسة على فهم دقيق لسياق المطالبة وعواقب المخرجات.

علاوة على ذلك، يميل اتخاذ القرار السيئ في LLM إلى نتائج كارثية في الممارسة العملية. على سبيل المثال، في عام 2023، اضطرت الجمعية الوطنية لاضطرابات الأكل (National Eating Disorder Association) إلى تعليق برنامج الدردشة الآلي الخاص بها والذي يعمل بالذكاء الاصطناعي. بدأت "Tessa" في توزيع شذرات من النصائح غير الحساسة مثل الوزن الأسبوعي وتناول الطعام بعجز يتراوح بين 500 إلى 1000 سعرة حرارية. تم تعطيل برنامج الدردشة الآلي بسرعة وسط عاصفة من الجدل.

بدلاً من مجرد تقديم معلومات غير صحيحة، يمكن لـ LLMs أيضًا التوصية بنتائج عامة. لاحظت INSEAD أنه عندما طُلب من ChatGPT طرح أسئلة بحثية حول استراتيجيات الأعمال، كان النموذج يميل إلى الانحراف نحو الحكمة التقليدية العامة فيما يتعلق بالإدارة التشاركية. على سبيل المثال، تميل LLMs إلى التوصية بالعمل التعاوني، وتعزيز ثقافة الابتكار ومواءمة الموظفين مع الأهداف التنظيمية. لكن وضع استراتيجيات الأعمال هو عملية اجتماعية واقتصادية معقدة لا تستفيد من النصائح العامة.

قد تكون الحجة المضادة: "إذا كنت تريد من LLMs أن ينتجوا استراتيجيات عمل أو نصائح في مجال الرعاية الصحية، فلماذا لا تدربهم على القيام بذلك على وجه التحديد؟" إن معالجة البيانات السياقية ليست مشكلة يمكن حلها عن طريق توسيع معلمات النموذج أو تدريبه على المزيد من البيانات. لا يمكن حل الحصول على LLM لاتخاذ قرار بناءً على سياق دقيق عن طريق زيادة مجموعة البيانات. إن مجرد إدخال المزيد من البيانات يمكن أن يؤدي إلى تحيزات موجودة مسبقًا أو يؤدي إلى تفاقمها وزيادة المتطلبات الحسابية.

تمكين اتخاذ القرار المناسب للسياق
يتطلب تدريب LLMs في عملية صنع القرار المناسبة للسياق لمسة حساسة. في الوقت الحالي، يقترح نهجان متطوران طرحتهما أبحاث التعلم الآلي الأكاديمية المعاصرة طرقًا بديلة لتعزيز عملية صنع القرار في LLMs لموازاة تلك الخاصة بالبشر. الأول، AutoGPT، يستخدم آلية ذاتية الانعكاس لتخطيط المخرجات والتحقق من صحتها؛ والثاني، شجرة الأفكار (ToT) Tree of Thoughts، يشجع على اتخاذ القرارات الفعالة عن طريق تعطيل التفكير
 المتسلسل التقليدي.

يمثل AutoGPT نهجًا متطورًا في تطوير الذكاء الاصطناعي، وهو مصمم لإنشاء نماذجه وتقييمها وتعزيزها بشكل مستقل لتحقيق أهداف محددة. ومنذ ذلك الحين، قام الأكاديميون بتحسين نظام AutoGPT من خلال دمج استراتيجية "الآراء الإضافية" التي تتضمن دمج نماذج الخبراء. يقدم هذا إطارًا تكامليًا جديدًا يسخر نماذج الخبراء، مثل التحليلات من النماذج المالية المختلفة، ويقدمها إلى LLM أثناء عملية صنع القرار.

باختصار، تدور الإستراتيجية حول زيادة قاعدة معلومات النموذج باستخدام المعلومات ذات الصلة. عند تطبيقها على سيناريوهات العالم الحقيقي، فإن وجود نماذج الخبراء يزيد بشكل كبير من قدرات اتخاذ القرار في LLM. ويمر النموذج عبر محطات "نقد الفكر والتفكير والخطة"، وذلك باستخدام نماذج الخبراء لبناء ومراجعة قرارات ماجستير إدارة الأعمال.

إذا تم نشرها بنجاح، يمكن LLMs الذين لديهم نماذج متخصصة تحليل معلومات أكثر من البشر، مما يشير إلى أنهم قادرون على اتخاذ قرارات أكثر استنارة. ومع ذلك، يعاني AutoGPT من نافذة سياق محدودة - بشكل أساسي، لا يمكن للنموذج سوى معالجة عدد محدود من الرموز المميزة في وقت واحد، مما يعني أن ذاكرته مقيدة. وبالتالي، يمكن أن يؤدي استخدام AutoGPT إلى حلقات لا حصر لها من التفاعلات. ومن ثم، فإن تقديم جميع المعلومات المتاحة في البداية يمكن أن يحقق مخرجات أكثر فعالية من قيام المستخدم بإدخال المعلومات أثناء محادثة طويلة مع النموذج.

كيف تحاكي "شجرة الأفكار" الإدراك البشري
هناك إطار آخر ذو إمكانات عالية لزيادة دقة LLMs وهو ToT، والذي يهدف إلى محاكاة الإدراك البشري. يدور الإدراك البشري حول توليد ومقارنة خيارات أو سيناريوهات مختلفة عند اتخاذ القرارات. لذلك، مثل استراتيجية الآراء الإضافية، يتتبع ToT اتخاذ القرارات الخاطئة في LLMs إلى عمليات الاستدلال الخطي الخاصة بهم. كما هو الحال مع AutoGPT، قام المتغير التابع لـ ToT بقياس قدرة LLMs  على الانصياع لتعليمات اللغة الطبيعية من خلال إكمال الألغاز والمهام المعقدة، مثل الكلمات المتقاطعة والكتابة الإبداعية.

يتم تصور عمليات الاستدلال الخطي في LLMs من خلال "سلسلة الفكر"، وهو نهج يشجع الشفافية في LLMs من خلال إظهار عملية صنع القرار المتسلسلة خطوة بخطوة. ومع ذلك، يهدف ToT إلى تعطيل ذلك من خلال تعزيز قدرات النقد الذاتي للنماذج وفحص مسارات التفكير المتعددة.

على سبيل المثال، عند لعب لعبة 24 (حيث يستخدم اللاعبون العمليات الحسابية الأساسية لتحويل 4 أرقام إلى 24)، فإن سلسلة الأفكار تكافح من أجل تصور نتائج مختلفة - أي الأرقام التي يمكن إضافتها وطرحها وضربها وتقسيمها لتوليد 24. ولذلك، حقق GPT-4 معدل دقة أحادي الرقم فقط. ونظرًا لقدرة ToT على رسم النتائج المختلفة، فقد حقق الإطار معدل دقة يبلغ 74%.

في نهاية المطاف، إذا قام LLMs بتطوير حكم أفضل باستمرار، فقد يتعاون البشر والذكاء الاصطناعي في اتخاذ القرارات الإستراتيجية في المستقبل. يقترح ToT التطبيق على "التشفير وتحليل البيانات والروبوتات Coding, Data Analysis And Robotics"، في حين يشير AutoGPT بشكل أكثر طموحًا إلى الذكاء العام (General Intelligence).

وفي كلتا الحالتين، تنتج الأبحاث الأكاديمية في مجال الذكاء الاصطناعي استراتيجيات عملية جديدة للحث على اتخاذ المزيد من القرارات المعرفية في LLMs. الميزة الموجودة مسبقًا لـ LLMs هي قدرتهم على تحليل كميات كبيرة من البيانات بسرعة- أكثر مما يستطيع الإنسان القيام به. ولذلك، إذا نجحت، فيمكن أن يضاهي LLMs - أو حتى يتفوقوا - على عملية صنع القرار البشرية في غضون السنوات القليلة المقبلة.