أصدرت مجموعة من أكثر من اثني عشر باحثًا النتائج الأولى في دراسة ضخمة لتأثير Facebook و Instagram على الديمقراطية، والتي أجريت بمشاركة Meta قبل وبعد الانتخابات الرئاسية الأمريكية في عام 2020. في سلسلة من أربع أوراق، وجدت أن تبديل المستخدمين إلى موجز أخبار التسلسل الزمنى (Chronological News)، وقمع المحتوى المعاد نشره فيروسيًا، وإخراج مستخدمي Facebook من غرف الصدى (Echo chambers) الخاصة بهم لم يكن له تأثير ملحوظ على معتقدات الناس أو سلوكهم السياسي. ومع ذلك، فقد أثرت هذه التدخلات على مقدار الوقت الذي يقضيه الأشخاص على المنصة ومقدار "المحتوى غير الجدير بالثقة" أو "المحتوى المتشابه في التفكير" الذي شاهدوه.
النتائج، التي تم إجراؤها كجزء من شراكة غير مسبوقة بين Meta و 17 أكاديميًا مستقلاً، تعقد المعتقدات الشائعة حول كيفية معالجة الاستقطاب عبر الإنترنت ويبدو أنها تقوض عددًا من المقترحات الأخيرة التي قدمها المشرعون وحتى الموظفون السابقون في الشركة، الذين اقترحوا أن تعديل خوارزميات Meta يمكن أن يكون المفتاح للتخفيف من بعض الانتقادات اللاذعة المحيطة بالسياسة على الإنترنت.
قال جوش تاكر- المدير المشترك لمركز جامعة نيويورك للإعلام الاجتماعي والسياسة، وأحد زملاء ما يسمى بدراسة انتخابات فيسبوك وإنستغرام الأمريكية 2020- في مكالمة مع الصحفيين هذا الأسبوع : "ما أظهرناه هنا هو ذلك. . . لمدة ثلاثة أشهر من الدراسة، في قلب فترة زمنية عندما نعتقد أن الكثير والكثير من الناس يهتمون بالسياسة، أن هذه الأنواع من التغييرات التي تم اقتراحها كطريقة لتخفيف بعض القضايا التي يواجهوننا كمجتمع اليوم، لا يبدو أنه كان له تأثير كبير على المواقف التي يهتم بها الكثير من الناس".
النتائج، التي تم إجراؤها كجزء من شراكة غير مسبوقة بين Meta و 17 أكاديميًا مستقلاً، تعقد المعتقدات الشائعة حول كيفية معالجة الاستقطاب عبر الإنترنت ويبدو أنها تقوض عددًا من المقترحات الأخيرة التي قدمها المشرعون وحتى الموظفون السابقون في الشركة، الذين اقترحوا أن تعديل خوارزميات Meta يمكن أن يكون المفتاح للتخفيف من بعض الانتقادات اللاذعة المحيطة بالسياسة على الإنترنت.
قال جوش تاكر- المدير المشترك لمركز جامعة نيويورك للإعلام الاجتماعي والسياسة، وأحد زملاء ما يسمى بدراسة انتخابات فيسبوك وإنستغرام الأمريكية 2020- في مكالمة مع الصحفيين هذا الأسبوع : "ما أظهرناه هنا هو ذلك. . . لمدة ثلاثة أشهر من الدراسة، في قلب فترة زمنية عندما نعتقد أن الكثير والكثير من الناس يهتمون بالسياسة، أن هذه الأنواع من التغييرات التي تم اقتراحها كطريقة لتخفيف بعض القضايا التي يواجهوننا كمجتمع اليوم، لا يبدو أنه كان له تأثير كبير على المواقف التي يهتم بها الكثير من الناس".
ونشرت نتائج الباحثين الخميس في شكل أربع دراسات، واحدة في مجلة Nature والثلاثة الأخرى في قسم خاص من مجلة Science. هم الأربعة الأولى في ما سيكون 16 تقريرًا إجماليًا تخرج من الدراسة، التي تم إطلاقها في صيف عام 2020.
في ذلك الوقت، أعلن فيسبوك عن خطة طموحة لمنح أكثر من عشرة باحثين مستقلين نظرة خاطفة نادرة وراء الستار في الفترة التي تسبق الانتخابات الرئاسية الأمريكية. بالنسبة إلى الشركة التي سعت إلى إبقاء بيانات المستخدم تحت القفل والمفتاح، وخاضت معركة علنية مع الأكاديميين الذين وجدوا حلولًا بديلة لدراستها، واكتشفت في الماضي انتقادات خطيرة لإجراء تجارب على المستخدمين، فقد كانت خطوة مهمة نحو الشفافية . تم تحديد النتائج في البداية ليتم إصدارها بعد عام في صيف عام 2021، ولكن تم تأخيرها عدة مرات بعد أن أدرك الباحثون الرئيسيون أن مهمتهم كانت "تستغرق وقتًا أطول بكثير" مما توقعوا. كما أدت أعمال الشغب التي وقعت في 6 يناير إلى إطالة فترة الدراسة التي كان من المقرر أن يقوم بها الباحثون في الأصل.
تم منح الباحثين وصولاً واسعًا إلى بيانات المستخدمين المجمعة من Facebook و Instagram، والعمل مع موظفي Facebook- الآن Meta- لدراسة تجارب جميع سكان الولايات المتحدة من مستخدمي Facebook النشطين. في بعض الحالات، حتى أنهم كانوا قادرين على تعديل خلاصات الأشخاص وتغيير ما تعرضوا له على Facebook و Instagram لقياس تأثيرات التدخلات المختلفة..
كان للباحثين سيطرة كاملة على العمل والكلمة الأخيرة في الأوراق، على الرغم من أن Meta رسمت خطوطًا مشرقة حول أي مجالات دراسة من شأنها أن تعرض خصوصية المستخدم للخطر أو تنتهك الالتزامات القانونية للشركة. في إحدى المدونات، بدا رئيس ميتا للشؤون العالمية، نيك كليج، سعيدًا، بل مرتاحًا، لنتائج الباحثين. كتب كليج أن "البحث المنشور في هذه الأوراق لن يحسم كل نقاش حول وسائل التواصل الاجتماعي والديمقراطية، لكننا نأمل ونتوقع أن يعزز فهم المجتمع لهذه القضايا".
تتناول الدراسات أربعة أسئلة رئيسية. ولعل أكثرها إثارة للاهتمام هو تأثير التحول من الخلاصة المصنفة حسب الخوارزميات إلى الخلاصة الزمنية على المواقف والسلوكيات السياسية لمستخدمي Instagram و Facebook. كانت هذه واحدة من الأفكار التي أيدتها فرانسيس هوجن، المُبلغ عن المخالفات على Facebook في عام 2021، والتي اكتسبت جاذبية مع المشرعين في ذلك الوقت. لاختبار تأثير هذا التبديل، أجرى الباحثون تجربة مع أكثر من 23000 مشارك على Facebook وأكثر من 21000 على Instagram، الذين اختاروا المشاركة في الدراسة. لمدة ثلاثة أشهر تنتهي في ديسمبر من عام 2020، بدأت مجموعة فرعية عشوائية من تلك المجموعة في رؤية المنشورات في خلاصاتهم بترتيب زمني عكسي، بدلاً من موجز مخصص.
وجد الباحثون أن المستخدمين الذين لديهم موجز زمني يقضون وقتًا أقل على Facebook و Instagram وتعرضوا لمحتوى أقل تشابهًا في التفكير على Facebook. لكنهم شهدوا أيضًا زيادة كبيرة في الوظائف مما تعتبره الشركة مصادر "غير جديرة بالثقة". ومع ذلك، لم يكن لهذه التغييرات أي تأثير على الاستقطاب أو المعرفة بالسياسة أو المشاركة السياسية للناس خارج الإنترنت، وفقًا للورقة البحثية التي نُشرت في مجلة Science. قالت ناتالي جوميني ستراود، مديرة المركز: "يجب أن تمنحنا هذه النتائج جميعًا وقفة، بما في ذلك صانعي السياسات، حول أي نوع بسيط من الحلول التي إذا قمت بتبديلها إلى التغذية الزمنية، فإن هذا سيحل كل هذه العلل التي نراها تحدث" من أجل مشاركة وسائل الإعلام في جامعة تكساس في أوستن، قال في المكالمة. كانت ستراود أيضًا زميلة في دراسة انتخابات 2020. قالت ستراود: "الحلول ليست بهذه البساطة".
طرح الباحثون سؤالًا مشابهًا، وهو موضوع بحث آخر في Science، وهو ما إذا كان تقييد إعادة المشاركة على Facebook - الميزة التي تسمح للأشخاص بنشر المحتوى الذي أنشأه الآخرون - قد يغير المعتقدات والآراء السياسية للأشخاص. كانت النظرية: نظرًا لأن عمليات إعادة المشاركة تميل إلى توجيه محتوى سريع الانتشار، وغالبًا ما يكون المحتوى الفيروسي مضللًا، فإن مثل هذا التغيير المستهدف قد يحدث فرقًا. لدراستها، صاغ الباحثون مرة أخرى حوالي 23000 مشارك اختاروا الاشتراك على Facebook. بالنسبة لجزء من هؤلاء المشاركين، منع الباحثون المشاركات المعاد مشاركتها من الظهور في خلاصاتهم.
كانت هذه النتائج أيضًا عبارة عن حقيبة مختلطة. أدت إزالة إعادة المشاركة إلى تقليل كمية المحتوى من مصادر غير جديرة بالثقة والتي شاهدها الأشخاص في خلاصاتهم بشكل كبير، ولكنها أيضًا قللت من كمية الأخبار السياسية التي يرونها بشكل عام. ليس هذا فحسب، بل قلل من معرفتهم السياسية الشاملة، مع عدم وجود تأثير على الاستقطاب. قال أندرو جيس، مساعد أستاذ السياسة والشؤون العامة بجامعة برينستون، والمؤلف الرئيسي لإعادة المشاركة ودراسات التغذية الزمنية، للصحفيين: "عندما تقوم بإزالة تلك المشاركات المعاد مشاركتها من خلاصات الأشخاص، فهذا يعني أنهم يرون محتوى أقل عرضة للانتشار وربما محتوى مضللًا، ولكن هذا يعني أيضًا أنهم يرون محتوى أقل من مصادر جديرة بالثقة أيضًا".
تبحث التجربة الثالثة، التي نُشرت نتائجها في دورية Nature، في تأثير تقليل كمية المحتوى الذي يراه الأشخاص من مصادر متشابهة التفكير على Facebook. استهدفت هذه الدراسة المخاوف المتعلقة بغرف الصدى عبر الإنترنت - فكرة أن الناس قد ينجذبون إلى معتقدات متطرفة أو راديكالية لأن الخوارزميات في الغالب تخدمهم المحتوى الذي يتفقون معه بالفعل.
نظر الباحثون إلى مجموع المستخدمين النشطين في الولايات المتحدة على Facebook ووجدوا أنه في حين أن المحتوى المتشابه في التفكير يشكل غالبية ما يراه المستخدمون، فإن حوالي خمس المستخدمين فقط هم في ما يسميه الباحثون "غرف الصدى المتطرفة"، وهذا يعني أكثر من 75% مما يرونه على Facebook يأتي من مصادر يتفقون معها سياسيًا. بطبيعة الحال، لا يزال خمس من 231 مليون مستخدم نشط على فيسبوك في الولايات المتحدة يمثلون ملايين الأشخاص.
ثم قام الباحثون بفحص آثار كسر هذه الفقاعات عن طريق الحد من تعرضهم لمشاركات من الأصدقاء والصفحات والمجموعات التي يتفقون معها سياسيًا. لقد أجروا هذه التجربة مع ما يقرب من 25000 مستخدم موافق على Facebook، وقد تم تقليل المنشورات من مصادر متشابهة التفكير في خلاصاتهم بمقدار الثلث. مرة أخرى، لم يكن للتجربة أي تأثير على الاستقطاب أو حدّة آراء الناس. لكنها قللت من المقدار الإجمالي للمحتوى المتشابه في التفكير الذي شاهده الناس. ثم مرة أخرى، عندما شاهد المستخدمون في المجموعة التجريبية منشورات من مصادر متشابهة التفكير، كانوا أكثر عرضة للتفاعل معها، كما لو أن حرمانهم من هذا المحتوى جعلهم أكثر جوعًا له.
"هذا تذكير بأنه من الصعب تجاوز التفضيلات النفسية لدى الأشخاص، في هذه الحالة، للتفاعل مع الأفكار التي يتفقون معها، فقط من خلال الخوارزمية وحدها"، هكذا قال خايمي سيتل، أستاذ الحكومة في William & Mary، و قال أحد المؤلفين المشاركين في تلك الورقة في المكالمة.
قد تكون الورقة النهائية، المنشورة في مجلة Science، هي الأكثر توافقًا مع المعتقدات الشائعة حول استقطاب وسائل التواصل الاجتماعي. نظرت في سلوك 208 ملايين بالغ في الولايات المتحدة على Facebook بين سبتمبر 2020 وفبراير 2021 لمعرفة ما إذا كان المحافظون والليبراليون يستهلكون أخبارًا مختلفة على Facebook. كما هو متوقع، وجد الباحثون أنهم يفعلون ذلك بالفعل. ليس هذا فقط، لكنهم وجدوا أن المحافظين من المرجح أن يشاهدوا الأخبار المصنفة كاذبة من قبل مدققي الحقائق على Facebook. بشكل عام، كان هناك أيضًا عددًا أكبر بكثير من عناوين URL التي يشاهدها المحافظون حصريًا أكثر من عرضها حصريًا من قبل الليبراليين، مما يشير إلى أن الزاوية المحافظة للنظام الإيكولوجي الإخباري على Facebook أكبر بكثير من الزاوية الليبرالية. لعبت الصفحات والمجموعات دورًا رئيسيًا في توجيه الناس إلى هذه المصادر الإخبارية المنفصلة.
هناك بالطبع العديد من المحاذير لمجموعة الدراسات. أقر الباحثون أنه في حين أن ثلاثة أشهر قد تكون وقتًا طويلاً لإجراء تجربة، إلا أنها فترة قصيرة من الوقت لتغيير معتقدات الشخص - ناهيك عن عدة آلاف من الأشخاص. هذا صحيح بشكل خاص خلال ذروة الانتخابات الرئاسية عندما تكون هذه المعتقدات أكثر حيوية. ليس هناك ما يدل على كيفية تنفيذ هذه التجارب نفسها إذا حدثت على مدى فترة زمنية أطول، في بلد آخر، أو حتى في الولايات المتحدة خارج دورة انتخابية. لا يؤكد الباحثون أن وسائل التواصل الاجتماعي لم يكن لها أي تأثير على سياسة الناس، فقط أن تغيير تلك المعتقدات من خلال التعديلات التقنية، حتى التغييرات الدراماتيكية، ليس بالبساطة التي يبدو عليها. قال تاكر: "هذا الاكتشاف لا يمكن أن يخبرنا كيف سيكون العالم لو لم يكن لدينا وسائل التواصل الاجتماعي منذ 10 إلى 15 عامًا إلى 20 عامًا".
ومع ذلك، فإن الأوراق الأربعة تشكل مساهمة كبيرة في الفهم العام لتأثير ميتا الذي نوقش كثيرًا على السياسة. ولكن الأمر الجدير بالملاحظة أيضًا هو حقيقة أن هذه الدراسات موجودة أصلاً. اختبر باحثو ميتا هذه الأنواع من التغييرات في الماضي بالطبع. في إحدى التجارب الشائنة بشكل خاص، اختبروا ما إذا كان من الممكن التأثير على مشاعر الناس من خلال تعديل ما شاهده المستخدمون في خلاصاتهم على Facebook. لقد كان - وانفجر في وجه Facebook. ولكن حتى ذلك الحين، كان الأمر متروكًا لباحثي Facebook لإجراء التجربة والإبلاغ عن النتائج التي توصلوا إليها.
كان هذا المشروع هو الأول الذي تمكن فيه الباحثون فعليًا من تغيير طريقة عمل Facebook و Instagram، ودراسة النتائج في الوقت الفعلي، والإبلاغ عن النتائج التي توصلوا إليها وفقًا لشروطهم الخاصة. لتتبع مدى نجاح هذه العملية، تم توثيق المشروع البحثي نفسه من قبل مقرر مستقل، أستاذ الصحافة بجامعة ويسكونسن ماديسون يدعى مايكل واجنر. يتم نشر نتائج Wagner الخاصة أيضًا في Science وتقدم نوعًا من الدراسة الوصفية (لا يقصد التورية) حول نجاحات وإخفاقات هذا النهج غير العادي.
كما أنها توفر نافذة لمعرفة مقدار التحكم الذي كان Meta مستعدًا حقًا للتخلي عنه في هذه العملية. في أحد التفاصيل الواضحة بشكل خاص، يلاحظ فاجنر أنه مع اقتراب المقالات من النشر، "أراد باحثو Meta أن يكونوا قادرين على الاختلاف صراحةً مع تفسيرات المؤلف الرئيسي للنتائج أو الأمور الأخرى في المقالات التي شاركوا في تأليفها"، وهو طلب قدمه ستراود وتاكر، وهما زملاء فريق البحث المستقل، رفض على ما يبدو.
إنه جزء مثير من المؤامرات وراء الكواليس، والتي نادرًا ما تصل إلى أوراق أكاديمية. لكنه يتحدث عن نقطة أوسع يطرحها فاغنر، وهي أن التعاون البحثي من هذا النوع سيكون دائمًا محفوفًا بالمخاطر طالما أنه يتطلب شراءًا طوعيًا من الشركات الخاصة. يكتب: "نتج عن التعاون بحث مستقل، لكنه كان استقلالًا بإذن من Meta".
لا يبدو أن زملاء المشروع يختلفون. وبقدر ما يأمل تاكر أن تتمكن المنصات الاجتماعية الأخرى والباحثون من التعلم من وتكرار النموذج الوارد في هذه الأوراق وغيرها من الأوراق القادمة، قال إنه من الأهمية بمكان أن يتعلم المشرعون والمنظمون منهم أيضًا. وقال: "نأمل أن يكون ما قمنا به هنا نموذجًا لكيفية إجراء هذا النوع من الأبحاث". "نأمل أيضًا أن تكون نتيجة هذا المشروع البحثي وكل ما يمكننا تعلمه من هذا المشروع - حول فك الصندوق الأسود للخوارزميات، حول الفصل الأيديولوجي السياسي على المنصة، حول تأثير هذه الخوارزميات على مواقف الناس - أن يشارك المنظمون في الولايات المتحدة وخارجها في طلب هذا النوع من البحث".