الأخبار

مؤتمر أبحاث أخلاقيات الذكاء الاصطناعي AI ethics يعلق رعاية Google

AI ethics research conference suspends Google sponsorship
 
قرر مؤتمر ACM للعدالة والمساءلة والشفافية (Fairness, Accountability, and Transparency FAccT) تعليق علاقته بالرعاية sponsorship مع Google، وأكد الرئيس المشارك لرعاية المؤتمر والأستاذ المساعد بجامعة ولاية بويز، Michael Ekstrand، اليوم. توصل منظمو مؤتمر أبحاث أخلاقيات الذكاء الاصطناعي إلى هذا القرار بعد أكثر من أسبوع بقليل من طرد Google لـ Margaret Mitchell قائدة فريق الذكاء الاصطناعي الأخلاقي Ethical AI وبعد ثلاثة أشهر من إقالة Timnit Gebru الرئيس المشارك لمنظمة Ethical AI. أعادت Google بعد ذلك تنظيم حوالي 100 مهندس عبر 10 فرق، بما في ذلك وضع الذكاء الاصطناعي الأخلاقي تحت قيادة Marian Croak نائب رئيس Google.

قال Ekstrand لـ VentureBeat في رسالة بريد إلكتروني: "تسترشد FAccT بخطة إستراتيجية Strategic Plan، وتكلف اللوائح الداخلية للمؤتمر رؤساء الرعاية، بالتعاون مع اللجنة التنفيذية، بتطوير محفظة رعاية تتوافق مع تلك الخطة". "اتخذت اللجنة التنفيذية قرارًا بأن وجود Google كراعٍ لمؤتمر 2021 لن يكون في مصلحة المجتمع ويعيق الخطة الإستراتيجية. سنقوم بمراجعة سياسة الرعاية لمؤتمر العام المقبل".

جاء القرار بعد أيام من الأسئلة حول ما إذا كانت FAccT ستواصل علاقتها مع Google بعد معاملة الشركة لقادة فريق الذكاء الاصطناعي الأخلاقي. ظهرت الأخبار لأول مرة يوم الجمعة، عندما غرد Suresh Venkatasubramanian عضو لجنة برنامج FAccT أن المنظمة ستوقف علاقتها مع Google مؤقتًا.

لا يعني تعليق رعاية Google انتهاء الرعاية من شركات التكنولوجيا الكبرى، أو حتى Google نفسها. DeepMind، الراعي الآخر لمؤتمر FAccT الذي أثار جدلاً حول أخلاقيات الذكاء الاصطناعي في يناير، هي أيضًا إحدى شركات Google. منذ تأسيسها في 2018، سعت FAccT للحصول على تمويل من رعاة Big Tech مثل Google و Microsoft، جنبًا إلى جنب مع Ford Foundation و MacArthur Foundation. أظهر تحليل صدر العام الماضي يقارن تمويل Big Tech لأبحاث أخلاقيات الذكاء الاصطناعي بتاريخ Big Tobacco في تمويل الأبحاث الصحية أن ما يقرب من 60% من الباحثين في أربع جامعات بارزة قد حصلوا على أموال من شركات التكنولوجيا الكبرى.

بعد طرد Gebru، احتج موظفو Google على ما وصفوه بأنه "رقابة بحثية غير مسبوقة unprecedented research censorship". في الأسبوع الماضي، أفادت وكالة Reuters عن حالة منفصلة من التدخل المزعوم في أبحاث الذكاء الاصطناعي في الشركة، حيث أشار مؤلف مشارك في ورقة بحثية إلى تعديلات "خبيثة للغاية" قام بها فريق Google القانوني.

وفقًا لموقع FAccT الإلكتروني، يواصل Gebru، الذي كان أحد مؤسسي المنظمة، العمل كجزء من مجموعة تقدم المشورة بشأن تقييم البيانات والخوارزمية وكرئيس لجنة البرنامج. Michael هو الرئيس المشارك لبرنامج المؤتمر وعضو لجنة برنامج FAccT. تم فصل Gebru من دورها في Google في ديسمبر 2020، بعد خلافات حول عوامل مثل نقص التنوع في شركات التكنولوجيا وورقة بحثية شاركت في تأليفها بعنوان "حول مخاطر الببغاوات العشوائية: هل يمكن أن تكون نماذج اللغة كبيرة جدًا؟" بالإضافة إلى الاعتراف بأن نماذج اللغة التي تم تدريبها مسبقًا قد تضر المجتمعات المهمشة بشكل غير متناسب، فإن العمل يتساءل عما إذا كان يمكن قياس التقدم حقًا من خلال الأداء في الاختبارات المعيارية. تثير الورقة أيضًا مخاوف بشأن احتمال إساءة استخدام النماذج اللغوية الكبيرة أو تحيز الأتمتة.

"إذا كان نموذج اللغة الكبير، المزوَّد بمئات المليارات من المعلمات والمُدرب على مجموعة بيانات كبيرة جدًا، يمكنه التلاعب بالشكل اللغوي جيدًا بما يكفي لخداع طريقه من خلال الاختبارات التي تهدف إلى طلب فهم اللغة، فقد تعلمنا أي شيء ذي قيمة حول كيفية إنشاء فهم لغة الآلة أم تم قيادنا إلى طريق الحديقة؟ " تقرأ الورقة.

تم إدراج Gebru كواحد من اثنين من المؤلفين الأساسيين للورقة، والتي تم قبولها هذا الأسبوع للنشر في FAccT. المؤلف المشارك الرئيسي لها هو Emily Bender، اللغوية بجامعة واشنطن، التي حصلت كتاباتها حول أوجه القصور المحتملة في نماذج اللغة الكبيرة والحاجة إلى نقد أعمق على جائزة الصيف الماضي من جمعية اللغويات الحاسوبية.

تسرد نسخة من الورقة البحثية VentureBeat التي تم الحصول عليها العام الماضي من مصدر مطلع على الأمر Michael باعتباره مؤلفًا مشاركًا، وكذلك Mark Diaz وBen Hutchinson باحثا Google، وهما ثلاثي لهما خلفيات في تحليل اللغة والنماذج. قد تكون Michael معروفة اليوم بعملها في مجال الأخلاق، ولكن يُستشهد بها كثيرًا كباحثة في مجال رؤية الكمبيوتر ومعالجة اللغات الطبيعية، وهي مؤلفة أطروحة الماجستير لعام 2008 حول إنشاء النصوص في جامعة واشنطن. عمل Ben Hutchinson مع مؤلفين مشاركين من فريق Ethical AI في Google على ورقة وجدت أن التحيز في نماذج البرمجة اللغوية العصبية لا يحابي الأشخاص ذوي الإعاق bias in NLP models disfavors people with disabilities في تحليل المشاعر والتنبؤ بالسمية. درس Mark Diaz التحيز المرتبط بالعمر الموجود في النص.

تم إدراج Bender و Gebru كمؤلفين أساسيين في إصدارات مختلفة من الورقة. نسخة من الورقة التي تم توفيرها قبل المؤتمر من قبل جامعة واشنطن تسرد "Shmargaret Scmitchell" كمؤلف.
 
تداعيات طرد Gebru، باحثة بارزة في مجال الخوارزميات في مجال الاضطهاد وواحدة من النساء السود الوحيدات اللائي عملن باحثة في الذكاء الاصطناعي في Google، أدت إلى معارضة عامة من جانب الآلاف من موظفي Google واتهامات بالعنصرية والانتقام. أثار الحادث أيضًا أسئلة من أعضاء في الكونجرس لديهم اهتمام موثق بتنظيم الخوارزميات. وقادت الباحثين إلى التساؤل عن أخلاقيات تلقي تمويل أبحاث الأخلاقيات من Google. قال خبراء في الذكاء الاصطناعي والأخلاق والقانون لـ VentureBeat أن مجموعة من التغييرات في السياسة يمكن أن تحدث نتيجة لإقالة Gebru، بما في ذلك دعم قوانين أقوى للمبلغين عن المخالفات. بعد فترة وجيزة من طرده، تحدث Gebru عن فكرة النقابة كوسيلة لحماية باحثي الذكاء الاصطناعي، وكان Michael عضوًا في اتحاد عمال الأبجدية الذي تم تشكيله في يناير 2021.

حذر باحثو OpenAI و Stanford الذين يعملون مع الخبراء الشهر الماضي من أن مبتكري النماذج اللغوية الكبيرة- مثل Google و OpenAI- لديهم فقط بضعة أشهر لوضع معايير لاستخدامهم الأخلاقي قبل أن تبدأ النسخ المكررة.

تتضمن الأوراق الأخرى المنشورة في FAccT هذا العام تحليلًا للعقبات الشائعة لممارسات مشاركة البيانات في الدول الأفريقية، ومراجعة تقييم تأثير الخوارزمية الذي أجراه فريق Data & Society AI on the Ground، والبحث الذي يدرس كيفية تأثير القمع الحكومي والرقابة على النص. تستخدم البيانات بانتظام لتدريب نماذج البرمجة اللغوية العصبية.

في نشاط آخر لمؤتمر أبحاث الذكاء الاصطناعي الأخير، قال منظمو NeurIPS، وهو المؤتمر السنوي الأكثر شعبية للتعلم الآلي، لـ VentureBeat إن المنظمة تخطط لمراجعة سياسة الرعاية الخاصة بها بعد الأسئلة المحيطة برعاية NeurIPS، يقال إن Huawei تصنع نظام اكتشاف المسلمين الأويجور للسلطات الصينية.