الأخبار

تشير نزاعات Facebook إلى أن الذكاء الاصطناعي الخاص به لا يمكنه اكتشاف خطاب الكراهية أو العنف باستمرار

كتب Guy Rosen نائب رئيس النزاهة في Facebook، في منشور مدونة يوم الأحد أن انتشار خطاب الكراهية على المنصة قد انخفض بنسبة 50% على مدار السنوات الثلاث الماضية، وأن "الرواية القائلة بأن التكنولوجيا التي نستخدمها لمحاربة خطاب الكراهية غير كافية وأن ذلك نحن نتعمد إساءة تمثيل تقدمنا​​" كان خطأ.

كتب Rosen: "لا نريد أن نرى الكراهية على منصتنا، ولا يفعلها المستخدمون أو المعلنون، ونحن نتحلى بالشفافية بشأن عملنا لإزالتها". "ما توضحه هذه الوثائق هو أن عمل النزاهة لدينا هو رحلة متعددة السنوات. في حين أننا لن نكون مثاليين أبدًا، تعمل فرقنا باستمرار على تطوير أنظمتنا وتحديد المشكلات وبناء الحلول".

يبدو أن المنشور جاء ردًا على مقال نُشر يوم الأحد في صحيفة وول ستريت جورنال، والذي قال إن موظفي Facebook المكلفين بإبقاء المحتوى المسيء بعيدًا عن النظام الأساسي لا يعتقدون أن الشركة قادرة على فحصه بشكل موثوق.

يشير تقرير وول ستريت جورنال إلى أن الوثائق الداخلية تظهر أنه قبل عامين، قلص Facebook الوقت الذي يركز فيه المراجعون البشريون على شكاوى خطاب الكراهية، وأجرى تعديلات أخرى قللت من عدد الشكاوى. وهذا بدوره ساعد في خلق مظهر أن الذكاء الاصطناعي لـ Facebook كان أكثر نجاحًا في تطبيق قواعد الشركة مما كان عليه في الواقع، وفقًا لـ WSJ.

اكتشف فريق من موظفي Facebook في مارس أن الأنظمة الآلية للشركة كانت تزيل المنشورات التي ولّدت ما بين 3 و5 % من مشاهدات خطاب الكراهية على المنصة الاجتماعية، وأقل من 1% من جميع المحتويات التي كانت تنتهك قواعدها ضد وذكرت وول ستريت جورنال أن العنف والتحريض.

لكن Rosen جادل بأن التركيز على إزالة المحتوى وحده كان "طريقة خاطئة للنظر في كيفية محاربتنا لخطاب الكراهية". ويقول إن تقنية إزالة الكلام الذي يحض على الكراهية هي مجرد طريقة واحدة يستخدمها Facebook لمحاربته. قال Rosen: "يجب أن نكون واثقين من أن شيئًا ما عبارة عن كلام يحض على الكراهية قبل إزالته".

وبدلاً من ذلك، قال، تعتقد الشركة أن التركيز على انتشار خطاب الكراهية الذي يراه الأشخاص فعليًا على المنصة وكيف يقلل ذلك باستخدام أدوات مختلفة هو مقياس أكثر أهمية. وادعى أنه مقابل كل 10000 مشاهدة لجزء من المحتوى على Facebook، كانت هناك خمس مشاهدات لخطاب الكراهية. كتب Rosen: "يخبرنا الانتشار بما ينتهك المحتوى الذي يراه الناس لأننا فوتناه". "إنها الطريقة الأكثر موضوعية في تقييم تقدمنا​​، لأنها توفر الصورة الأكثر اكتمالا".

لكن الوثائق الداخلية التي حصلت عليها وول ستريت جورنال أظهرت أن بعض الأجزاء المهمة من المحتوى كانت قادرة على التهرب من اكتشاف Facebook، بما في ذلك مقاطع فيديو لحوادث السيارات التي أظهرت أشخاصًا يعانون من إصابات مصورة وتهديدات عنيفة ضد الأطفال.

أنتجت وول ستريت جورنال سلسلة من التقارير حول Facebook بناءً على الوثائق الداخلية التي قدمها المخبرون فرانسيس هوغن. وشهدت أمام الكونجرس بأن الشركة كانت على دراية بالتأثير السلبي الذي يمكن أن تحدثه منصة Instagram الخاصة بها على المراهقين. عارض Facebook في الإبلاغ بناءً على المستندات الداخلية.