الأخبار

ما هي الخطوة التالية لتنظيم الذكاء الاصطناعي في عام 2024؟

في عام 2023، تحولت سياسة الذكاء الاصطناعي وتنظيمه من موضوع متخصص وغريب إلى أخبار الصفحة الأولى. ويعود الفضل في ذلك جزئيًا إلى ChatGPT من OpenAI، والذي ساعد الذكاء الاصطناعي على أن يصبح سائدًا، ولكنه عرّف الناس أيضًا على كيفية عمل أنظمة الذكاء الاصطناعي - وكيف لا تعمل. لقد كان عاما هائلا بالنسبة للسياسة: فقد شهدنا أول قانون شامل للذكاء الاصطناعي تم الاتفاق عليه في الاتحاد الأوروبي، وجلسات استماع في مجلس الشيوخ وأوامر تنفيذية في الولايات المتحدة، وقواعد محددة في الصين لأشياء مثل خوارزميات التوصية (Recommender Algorithms).

إذا كان عام 2023 هو العام الذي اتفق فيه المشرعون على الرؤية، فإن عام 2024 سيكون العام الذي تبدأ فيه السياسات في التحول إلى إجراءات ملموسة. إليك ما يمكن توقعه.
 
الولايات المتحدة
لقد دخل الذكاء الاصطناعي بالفعل إلى الحوار السياسي في الولايات المتحدة في عام 2023. لكن الأمر لم يكن مجرد نقاش. كانت هناك أيضًا إجراءات، بلغت ذروتها في الأمر التنفيذي الذي أصدره الرئيس بايدن بشأن الذكاء الاصطناعي في نهاية أكتوبر، وهو توجيه مترامي الأطراف يدعو إلى مزيد من الشفافية والمعايير الجديدة.

من خلال هذا النشاط، بدأت نكهة أمريكية لسياسة الذكاء الاصطناعي في الظهور: سياسة صديقة لصناعة الذكاء الاصطناعي، مع التركيز على أفضل الممارسات، والاعتماد على الوكالات المختلفة لصياغة قواعدها الخاصة، ونهج دقيق لتنظيم كل 
من قطاعات الاقتصاد بشكل مختلف.

سيعتمد العام المقبل على زخم عام 2023، وسيتم تفعيل العديد من البنود المفصلة في الأمر التنفيذي لبايدن. وسنسمع أيضًا الكثير عن المعهد الأمريكي الجديد لسلامة الذكاء الاصطناعي، والذي سيكون مسؤولاً عن تنفيذ معظم السياسات المطلوبة في الأمر.

ومن وجهة نظر الكونجرس، ليس من الواضح ما الذي سيحدث بالضبط. أشار زعيم الأغلبية في مجلس الشيوخ تشاك شومر مؤخرًا إلى أنه قد يتم إصدار قوانين جديدة بالإضافة إلى الأمر التنفيذي. هناك بالفعل العديد من المقترحات التشريعية التي تمس جوانب مختلفة من الذكاء الاصطناعي، مثل الشفافية، والتزييف العميق، ومساءلة المنصة. لكن ليس من الواضح أي من مشاريع القوانين المقترحة بالفعل، إن وجدت، ستكتسب زخمًا في العام المقبل.

ومع ذلك، ما يمكننا أن نتوقعه هو اتباع نهج يصنف أنواع واستخدامات الذكاء الاصطناعي حسب حجم المخاطر التي تشكلها - وهو إطار مماثل لقانون الذكاء الاصطناعي في الاتحاد الأوروبي. وقد اقترح المعهد الوطني للمعايير والتكنولوجيا بالفعل مثل هذا الإطار الذي سيتعين على كل قطاع ووكالة الآن أن يضعه موضع التنفيذ، كما يقول كريس ميسيرول، المدير التنفيذي لمنتدى فرونتير النموذجي، وهي هيئة ضغط صناعية.

هناك شيء آخر واضح: الانتخابات الرئاسية الأمريكية في عام 2024 سوف تؤثر على الكثير من المناقشة حول تنظيم الذكاء الاصطناعي. وكما نرى في تأثير الذكاء الاصطناعي على منصات وسائل التواصل الاجتماعي والمعلومات المضللة، يمكننا أن نتوقع أن يتشكل النقاش حول كيفية منع الأضرار الناجمة عن هذه التكنولوجيا من خلال ما يحدث خلال موسم الانتخابات.
 
أوروبا
لقد وافق الاتحاد الأوروبي للتو على قانون الذكاء الاصطناعي، وهو أول قانون شامل للذكاء الاصطناعي في العالم.

وبعد التعديلات الفنية المكثفة والموافقة الرسمية من قبل الدول الأوروبية وبرلمان الاتحاد الأوروبي في النصف الأول من عام 2024، سيدخل قانون الذكاء الاصطناعي حيز التنفيذ بسرعة كبيرة. في السيناريو الأكثر تفاؤلاً، يمكن تطبيق الحظر على بعض استخدامات الذكاء الاصطناعي بمجرد نهاية العام.

كل هذا يعني أن عام 2024 سيكون عامًا مزدحمًا لقطاع الذكاء الاصطناعي حيث يستعد للامتثال للقواعد الجديدة. على الرغم من أن معظم تطبيقات الذكاء الاصطناعي ستحصل على تصريح مجاني من قانون الذكاء الاصطناعي، فإن الشركات التي تطور نماذج وتطبيقات أساسية تعتبر أنها تشكل "خطرًا كبيرًا" على الحقوق الأساسية، مثل تلك التي من المفترض استخدامها في قطاعات مثل التعليم والرعاية الصحية والرعاية الصحية. الشرطة، يجب أن تفي بالمعايير الجديدة للاتحاد الأوروبي. وفي أوروبا، لن يُسمح للشرطة باستخدام التكنولوجيا في الأماكن العامة، ما لم تحصل على موافقة المحكمة أولاً لأغراض محددة مثل مكافحة الإرهاب، أو منع الاتجار بالبشر، أو العثور على شخص مفقود.

سيتم حظر الاستخدامات الأخرى للذكاء الاصطناعي تمامًا في الاتحاد الأوروبي، مثل إنشاء قواعد بيانات للتعرف على الوجه (Facial Recognition Databases) مثل Clearview AI أو استخدام تقنية التعرف على المشاعر (Emotion Recognition Technology)  في العمل أو المدارس. سيتطلب قانون الذكاء الاصطناعي (AI Act) من الشركات أن تكون أكثر شفافية بشأن كيفية تطوير نماذجها، كما سيجعلها، والمنظمات التي تستخدم أنظمة الذكاء الاصطناعي عالية المخاطر، أكثر عرضة للمساءلة عن أي أضرار قد تنتج عن ذلك.

ويتعين على الشركات التي تعمل على تطوير النماذج الأساسية (Foundation Models) - النماذج التي تعتمد عليها منتجات الذكاء الاصطناعي الأخرى، مثل GPT-4 - أن تمتثل للقانون في غضون عام واحد من دخوله حيز التنفيذ. وأمام شركات التكنولوجيا الأخرى عامين لتنفيذ القواعد.

لتلبية المتطلبات الجديدة، يتعين على شركات الذكاء الاصطناعي أن تكون أكثر تفكيرًا بشأن كيفية بناء أنظمتها، وتوثيق أعمالها بشكل أكثر صرامة حتى يمكن تدقيقها. سيتطلب القانون من الشركات أن تكون أكثر شفافية بشأن كيفية تدريب نماذجها، وسيضمن تدريب واختبار أنظمة الذكاء الاصطناعي التي تعتبر عالية المخاطر باستخدام مجموعات بيانات تمثيلية كافية من أجل تقليل التحيزات (Biases)، على سبيل المثال.

ويعتقد الاتحاد الأوروبي أن أقوى نماذج الذكاء الاصطناعي، مثل GPT-4 من OpenAI، وGemini من Google، يمكن أن تشكل خطرا "نظاميا Systemic" على المواطنين وبالتالي تحتاج إلى عمل إضافي لتلبية معايير الاتحاد الأوروبي. يجب على الشركات اتخاذ خطوات لتقييم المخاطر والتخفيف من حدتها والتأكد من أن الأنظمة آمنة، وسيُطلب منها الإبلاغ عن الحوادث الخطيرة ومشاركة التفاصيل المتعلقة باستهلاكها للطاقة. وسيكون الأمر متروكًا للشركات لتقييم ما إذا كانت نماذجها قوية بما يكفي للوقوع ضمن هذه الفئة.

تُعفى شركات الذكاء الاصطناعي مفتوحة المصدر (Open-source AI companies) من معظم متطلبات الشفافية التي يفرضها قانون الذكاء الاصطناعي، إلا إذا كانت تعمل على تطوير نماذج كثيفة الحوسبة مثل GPT-4. قد يؤدي عدم الالتزام بالقواعد إلى فرض غرامات باهظة أو التسبب في حظر منتجاتها من الاتحاد الأوروبي.

ويعمل الاتحاد الأوروبي أيضًا على مشروع قانون آخر، يسمى توجيه مسؤولية الذكاء الاصطناعي، والذي سيضمن حصول الأشخاص الذين تضرروا من التكنولوجيا على تعويض مالي. ولا تزال المفاوضات بشأن ذلك مستمرة ومن المرجح أن تستأنف هذا العام.

وتتخذ بعض البلدان الأخرى نهجا أكثر عدم التدخل. على سبيل المثال، قالت المملكة المتحدة، موطن شركة جوجل ديب مايند، إنها لا تنوي تنظيم الذكاء الاصطناعي على المدى القصير. ومع ذلك، فإن أي شركة خارج الاتحاد الأوروبي، ثاني أكبر اقتصاد في العالم، سيظل يتعين عليها الالتزام بقانون الذكاء الاصطناعي إذا كانت تريد القيام بأعمال تجارية في الكتلة التجارية.

وقد أطلق آنو برادفورد، أستاذ القانون في جامعة كولومبيا، على هذا الأمر اسم "تأثير بروكسل Brussels effect" - حيث أن الاتحاد الأوروبي، باعتباره أول من ينظم، قادر على وضع المعيار العالمي الفعلي، وتشكيل الطريقة التي يمارس بها العالم أعماله ويطور التكنولوجيا. وقد نجح الاتحاد الأوروبي في تحقيق هذه الغاية من خلال نظامه الصارم لحماية البيانات، اللائحة العامة لحماية البيانات (GDPR)، والتي تم نسخها في كل مكان من كاليفورنيا إلى الهند. وتأمل في تكرار الحيلة عندما يتعلق الأمر بالذكاء الاصطناعي.
 
الصين
حتى الآن، كان تنظيم الذكاء الاصطناعي في الصين مجزأ ومجزأ بشكل عميق. وبدلاً من تنظيم الذكاء الاصطناعي ككل، أصدرت الدولة تشريعات فردية كلما أصبح منتج جديد للذكاء الاصطناعي بارزًا. ولهذا السبب، لدى الصين مجموعة واحدة من القواعد لخدمات التوصية الخوارزمية (التطبيقات ومحركات البحث الشبيهة بـ TikTok)، وأخرى للتزييف العميق، وأخرى للذكاء الاصطناعي التوليدي.

وتكمن قوة هذا النهج في أنه يسمح لبكين بالاستجابة بسرعة للمخاطر الناشئة عن التقدم التكنولوجي - سواء بالنسبة للمستخدمين أو للحكومة. لكن المشكلة تكمن في أنها تمنع تطوير منظور بانورامي طويل المدى.

ويمكن أن يتغير ذلك في العام المقبل. في يونيو 2023، أعلن مجلس الدولة الصيني، أعلى هيئة حاكمة، أن "قانون الذكاء الاصطناعي Artificial Intelligence Law" مدرج على جدول أعماله التشريعي. سيغطي هذا القانون كل شيء، مثل قانون الذكاء الاصطناعي لأوروبا. ونظرًا لنطاقها الطموح، فمن الصعب تحديد المدة التي ستستغرقها العملية التشريعية. قد نرى المسودة الأولى في عام 2024، ولكن قد يستغرق الأمر وقتًا أطول. وفي غضون ذلك، لن يكون من المستغرب أن يقدم منظمو الإنترنت الصينيون قواعد جديدة للتعامل مع أدوات الذكاء الاصطناعي الجديدة الشائعة أو أنواع المحتوى التي ستظهر في العام المقبل.

حتى الآن، لم يتم نشر سوى القليل جدًا من المعلومات حول هذا الأمر، ولكن هناك وثيقة واحدة يمكن أن تساعدنا في التنبؤ بالقانون الجديد: أصدر باحثون من الأكاديمية الصينية للعلوم الاجتماعية، وهو معهد أبحاث مملوك للدولة، نسخة "اقتراح الخبراء Expert Suggestion" من الذكاء الاصطناعي الصيني. القانون في أغسطس. تقترح هذه الوثيقة إنشاء "مكتب وطني للذكاء الاصطناعي National AI Office" للإشراف على تطوير الذكاء الاصطناعي في الصين، وتطالب بإصدار "تقرير سنوي مستقل عن المسؤولية الاجتماعية Social Responsibility Report" عن نماذج المؤسسات، وتضع "قائمة سلبية Negative List" لمجالات الذكاء الاصطناعي ذات المخاطر الأعلى، والتي يمكن للشركات أن تفعلها. حتى البحث دون موافقة الحكومة.

في الوقت الحالي، تخضع شركات الذكاء الاصطناعي الصينية بالفعل للكثير من اللوائح. في الواقع، يجب تسجيل أي نموذج أساسي لدى الحكومة قبل أن يتم إصداره للجمهور الصيني (اعتبارًا من نهاية عام 2023، سجلت 22 شركة نماذج الذكاء الاصطناعي الخاصة بها).

وهذا يعني أن الذكاء الاصطناعي في الصين لم يعد بيئة الغرب المتوحش. ولكن كيف سيتم تطبيق هذه اللوائح بالضبط لا يزال غير مؤكد. في العام المقبل، سيتعين على شركات الذكاء الاصطناعي التوليدي (Generative-AI) أن تحاول فهم واقع الامتثال، خاصة فيما يتعلق بمراجعات السلامة وانتهاك الملكية الفكرية.

وفي الوقت نفسه، وبما أن شركات الذكاء الاصطناعي الأجنبية لم تحصل على أي موافقة لإطلاق منتجاتها في الصين (ومن المرجح ألا تفعل ذلك في المستقبل)، فإن البيئة التجارية المحلية الناتجة عن ذلك تحمي الشركات الصينية. وقد يساعدهم ذلك على اكتساب ميزة في مواجهة شركات الذكاء الاصطناعي الغربية، ولكنه قد يؤدي أيضا إلى خنق المنافسة وتعزيز سيطرة الصين على التعبير عبر الإنترنت.

بقية العالم
من المحتمل أن نشهد إدخال المزيد من لوائح الذكاء الاصطناعي في أجزاء أخرى من العالم خلال العام المقبل. إحدى المناطق التي يجب مراقبتها هي أفريقيا. من المرجح أن يصدر الاتحاد الأفريقي استراتيجية للذكاء الاصطناعي للقارة في أوائل عام 2024، تهدف إلى وضع سياسات يمكن للدول الفردية تكرارها للتنافس في الذكاء الاصطناعي وحماية المستهلكين الأفارقة من شركات التكنولوجيا الغربية، كما تقول ميلودي موسوني، مسؤولة السياسات في المركز الأوروبي. لإدارة سياسات التنمية.

وقد قامت بعض البلدان، مثل رواندا ونيجيريا وجنوب أفريقيا، بصياغة استراتيجيات وطنية للذكاء الاصطناعي وتعمل على تطوير برامج التعليم، والقدرة الحاسوبية، والسياسات الصديقة للصناعة لدعم شركات الذكاء الاصطناعي. بدأت الهيئات العالمية مثل الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية ومجموعة العشرين والتحالفات الإقليمية في إنشاء مجموعات عمل ومجالس استشارية ومبادئ ومعايير وبيانات حول الذكاء الاصطناعي. وقد تكون مجموعات مثل منظمة التعاون الاقتصادي والتنمية مفيدة في خلق الاتساق التنظيمي عبر المناطق المختلفة، مما قد يخفف عبء الامتثال على شركات الذكاء الاصطناعي.

من الناحية الجيوسياسية، من المرجح أن نشهد اختلافات متزايدة بين كيفية قيام الدول الديمقراطية والاستبدادية بتعزيز صناعات الذكاء الاصطناعي الخاصة بها واستخدامها كسلاح. سيكون من المثير للاهتمام معرفة إلى أي مدى تعطي شركات الذكاء الاصطناعي الأولوية للتوسع العالمي أو التخصص المحلي في عام 2024. وقد يتعين عليها اتخاذ بعض القرارات الصعبة.