الأخبار

حكومة المملكة المتحدة تطلب من الشركات أن تشرح طريقة العمل الداخلية لأنظمة الذكاء الاصطناعي الخاصة بها

وتدفع حكومة المملكة المتحدة شركات مثل OpenAI، وAnthropic، وGoogle إلى شرح طريقة العمل الداخلية لنماذج اللغات الكبيرة الخاصة بها. في حين أن الكود الخاص ببعض النماذج متاح للعامة، إلا أن النماذج مثل GPT-3.5 وGPT-4 ليست عامة، وتتردد OpenAI جدًا في مشاركة العديد من التفاصيل.

تستعد المملكة المتحدة لاستضافة قمة عالمية جديدة للذكاء الاصطناعي ستجمع الحكومات والشركات والباحثين لدراسة المخاطر التي يفرضها الذكاء الاصطناعي ومناقشة سبل التخفيف من هذه المخاطر.

أحد الأسباب التي تجعل الشركات مترددة في مشاركة المعلومات الداخلية الخاصة ببرامج LLM الخاصة بها هو أن الإجراء قد يكشف عن معلومات خاصة حول منتجاتها. إذا عرفت الجهات الفاعلة الخبيثة المزيد عن الأجزاء الداخلية، فقد يؤدي ذلك أيضًا إلى جعل نماذج الذكاء الاصطناعي عرضة للهجمات السيبرانية.

وفقا لصحيفة فايننشال تايمز، فإن أحد الأشياء التي ترغب الحكومة في فحصها هي أوزان النماذج التي تحدد قوة الروابط بين الخلايا العصبية عبر طبقات مختلفة من النماذج. ولا تحتاج شركات الذكاء الاصطناعي حاليًا إلى مشاركة هذه التفاصيل، ولكن هناك بعض الدعوات لمزيد من الشفافية في هذا الشأن.

ستعقد المملكة المتحدة قمتها الأولى في بلتشلي بارك في نوفمبر. يحتل بليتشلي بارك مكانة مهمة في تاريخ الحوسبة لأنه المكان الذي تم فيه فك تشفير الرسائل النازية. آلان تورينج، الذي سمي اختبار تورينج المتعلق بالذكاء الاصطناعي باسمه، عمل هناك أيضًا على كسر الرموز.

أشارت صحيفة فايننشال تايمز إلى أن شركات جوجل مثل DeepMind وOpenAI وAnthropic اتفقت جميعها في يونيو على فتح نماذجها لحكومة المملكة المتحدة لأغراض البحث والسلامة. ولسوء الحظ، في ذلك الوقت، لم يتوصل الطرفان إلى مدى الوصول والتفاصيل الفنية. الآن، تطالب الحكومة بمستوى عميق من الوصول.

في نهاية المطاف، لكي تنجح القمة، سيكون من المهم للحاضرين أن يفهموا ما يكفي حول كيفية عمل النماذج حتى يمكن فهم المخاطر بشكل أفضل. ما إذا كان لديهم ما يكفي من الوصول لفهم النماذج هو سؤال آخر.