شغلت خوارزميات "فيسبوك" و"إنستغرام" المشرعين والناشطين والهيئات التنظيمية لسنوات. ودعا الكثيرون إلى إلغاء الخوارزميات لوقف انتشار الأخبار الزائفة ومنع تأجيج الانقسامات السياسية. لكن أربع دراسات جديدة نُشرت في يوليو/ تموز الماضي، بينها واحدة دققت في بيانات 208 ملايين أميركي استخدموا "فيسبوك" خلال الانتخابات الرئاسية لعام 2020، تجعل هذه المسألة أكثر تعقيداً.
في الأوراق البحثية، وجد باحثون من جامعات تكساس ونيويورك وبرينستون ومؤسسات أخرى أن إزالة بعض الوظائف الرئيسية لخوارزميات المنصات الاجتماعية ليس لها "آثار قابلة للقياس" على المعتقدات السياسية للأشخاص. وقال الباحثون إنه في إحدى التجارب على خوارزمية "فيسبوك"، انخفضت معرفة الأشخاص بالأخبار السياسية عندما سلبت منهم القدرة على إعادة مشاركة المنشورات.
وفي الوقت نفسه، كان استهلاك الأخبار السياسية على "فيسبوك" و"إنستغرام" مفصولاً إلى حد كبير حسب الأيديولوجيا، وفقاً لدراسة أخرى. ووجد البحث أن أكثر من 97 في المائة من روابط القصص الإخبارية التي صنفها مدققو الحقائق على أنها كاذبة، خلال انتخابات 2020، اجتذبت قراءً محافظين أكثر من الليبراليين.
تقدم الدراسات التي نُشرت في مجلتي سَينس ونيتشر صورة متناقضة ودقيقة لكيفية استخدام الأميركيين، وتأثرهم، باثنتين من أكبر المنصات الاجتماعية في العالم. تشير النتائج المتضاربة إلى أن فهم دور وسائل التواصل الاجتماعي في تشكيل الخطاب قد يستغرق سنوات قبل حلّه.
وبرزت الأوراق البحثية أيضاً بسبب الأعداد الكبيرة من مستخدمي "فيسبوك" و"إنستغرام" الذين تم تضمينهم، ولأن الباحثين حصلوا على البيانات وصاغوا وأجروا التجارب بالتعاون مع شركة ميتا التي تمتلك التطبيقين. هذه الدراسات هي الأولى في سلسلة من 16 ورقة بحثية راجعها النظراء. اعتمدت دراسات وسائل التواصل الاجتماعي السابقة في الغالب على المعلومات المتاحة للجمهور، أو استندت إلى أعداد صغيرة من المستخدمين الذين لديهم معلومات "تم استخلاصها" أو تنزيلها من الإنترنت.
مؤسّسة ومديرة مركز المشاركة الإعلامية في جامعة تكساس في أوستن تاليا ستراود، والأستاذ والمؤسس المشارك لمركز الإعلام الاجتماعي والسياسة في جامعة نيويورك جوشوا تاكر، والذي ساعد في قيادة المشروع، قالا إنهما "يعرفان الآن مدى تأثير الخوارزمية في تشكيل تجارب الأشخاص على المنصتين". لكن ستراود قالت، في مقابلة، إن البحث أظهر "القضايا الاجتماعية المعقدة للغاية التي نتعامل معها"، وإنه من المحتمل ألا يكون هناك "حل سحري" لتأثيرات وسائل التواصل الاجتماعي.
وعلقت مديرة السياسة العامة السابقة في شركة ميتا التي تركت الشركة عام 2021، كاتي هارباث، قائلة "يجب أن نكون حذرين بشأن ما نفترض أنه يحدث مقابل ما يحدث بالفعل". وأضافت أن الدراسات قلبت "التأثيرات المفترضة لوسائل التواصل الاجتماعي". وأشارت إلى أن التفضيلات السياسية للأشخاص تتأثر بعوامل عدة، و"وسائل التواصل الاجتماعي وحدها ليست المسؤولة عن كل مشاكلنا".
وأنفقت شركة ميتا، التي أعلنت في أغسطس/ آب عام 2020 أنها ستشارك في البحث، 20 مليون دولار على عمل "إن أو آر سي" (NORC) في جامعة شيكاغو، وهي منظمة بحثية غير حزبية ساعدت في جمع بعض البيانات. ولم تدفع الشركة أجور الباحثين، رغم أن بعض موظفيها عملوا مع الأكاديميين. وتمكنت "ميتا" من الاعتراض على طلبات البيانات التي تنتهك خصوصية مستخدميها.
وقال أستاذ الاتصالات الجماهيرية في جامعة ويسكونسن ماديسون، مايكل فاغنر، والذي كان أحد الباحثين من جامعة ويسكونسن ماديسون، إن هذا العمل لم يكن نموذجاً للبحث المستقبلي، لأنه يتطلب مشاركة مباشرة من "ميتا" التي احتفظت بجميع البيانات وزودت الباحثين بأنواع معينة فقط. وقال الباحثون إن لهم القول الفصل في استنتاجات الأبحاث.
وصرّح رئيس الشؤون العالمية في "ميتا"، نيك كليغ، أن الدراسات أظهرت أن "هناك القليل من الأدلة على أن السمات الرئيسية لمنصات ميتا وحدها تسبب استقطاباً عاطفياً ضاراً، أو لها تأثيرات ذات معنى على هذه النتائج". وقال إنه "في حين أن الجدل حول وسائل التواصل الاجتماعي والديمقراطية لن يُسوّى من خلال هذه النتائج، إلا أننا نأمل ونتوقع أن تعزز فهم المجتمع لهذه القضايا".
تصل هذه الدراسات في وقت مضطرب في صناعة وسائل التواصل الاجتماعي. الشهر الماضي، طرحت ميتا منصة ثريدز المنافسة لـ"تويتر". وغيّر إيلون ماسك، مالك "تويتر"، المنصة، وأطلق عليها أخيراً اسم "إكس". وتشهد مواقع أخرى، مثل "ديسكورد" و"يوتيوب" و"ريديت" و"تيك توك"، ازدهاراً، ويبدو أن الوافدين الجدد مثل "بلوسكاي" و"ماستودون" يحظون بجاذبية لا يمكن تجاهلها.
في السنوات الأخيرة، حاولت "ميتا" أيضاً تحويل التركيز بعيداً عن تطبيقاتها الاجتماعية إلى عملها على عالم "ميتافيرس". على مدار الأشهر الـ19 الماضية، شهدت "ميتا" خسائر تشغيلية تزيد عن 21 مليار دولار من قسم "رياليتي لابز"، المسؤول عن بناء "ميتافيرس".
أثار الباحثون لسنوات تساؤلات حول الخوارزميات الأساسية لـ"فيسبوك" و"إنستغرام"، والتي تحدد ما يراه الأشخاص في خلاصاتهم على التطبيقين. عام 2021، سلطت فرانسيس هاوغين، وهي موظفة سابقة في "فيسبوك"، الضوء على هذه الخوارزميات أيضاً. وزودت المشرعين ووسائل الإعلام بآلاف من وثائق الشركة، وشهدت في الكونغرس بأن خوارزمية موقع فيسبوك "تتسبب في تعريض المراهقين لمزيد من المحتوى المتعلق بفقدان الشهية" وكانت "تؤجج العنف العرقي حرفياً" في دول مثل إثيوبيا.
وفي وقت لاحق، قدم المشرعون مشاريع قوانين لدراسة الخوارزميات أو الحد منها. لم يمرّ منها أي شيء. طُلب من مستخدمي "فيسبوك" و"إنستغرام" الموافقة على المشاركة في ثلاث من الدراسات المنشورة في يوليو، مع حجب معلومات التعريف الخاصة بهم. وفي الدراسة الرابعة، زودت الشركة الباحثين ببيانات مجهولة المصدر لـ208 ملايين مستخدم لـ"فيسبوك".
إحدى الدراسات كانت بعنوان "كيف تؤثر خوارزميات تغذية وسائل التواصل الاجتماعي على المواقف"؟ في هذا البحث الذي شمل أكثر من 23 ألف مستخدم لـ"فيسبوك" و21 ألف مستخدم لـ"إنستغرام"، استبدل الباحثون الخوارزميات بموجزات زمنية عكسية، مما يعني أن الأشخاص شاهدوا أحدث المنشورات أولاً بدلاً من المنشورات التي صممت لتناسب اهتماماتهم.
ومع ذلك، وجد الباحثون أن "استقطاب" الأشخاص، أو المعرفة السياسية، لم تتغير. في الدراسات الاستقصائية التي أجراها الأكاديميون، لم يبلغ الأشخاص عن تغيير في سلوكياتهم، مثل التوقيع على المزيد من الالتماسات عبر الإنترنت أو حضور المزيد من التجمعات السياسية، بعد تغيير موجز الأخبار الخاص بهم.
ومما يثير القلق أن الخلاصة بترتيب زمني عكسي زادت من كمية المحتوى غير الجدير بالثقة الذي شاهده المستخدمون، وفقاً للدراسة. ووجدت الدراسة التي نظرت في بيانات 208 ملايين مستخدم أميركي لـ"فيسبوك" خلال انتخابات 2020 أنهم منقسمون حسب الأيديولوجيا السياسية، حيث يشاهد أولئك الذين عرفوا بأنهم محافظون معلومات مضللة أكثر من أولئك الذين عرفوا بأنهم ليبراليون.
ويميل المحافظون إلى قراءة المزيد من الروابط الإخبارية السياسية التي يقرأها أيضاً المحافظون الآخرون بشكل حصري تقريباً، وفقًا للبحث. ومن بين المقالات الإخبارية التي وصفها مدققو الحقائق التابعون لجهات خارجية بأنها كاذبة، تم النظر إلى أكثر من 97 في المائة منها من قبل المحافظين أكثر من الليبراليين.
شاركت صفحات ومجموعات "فيسبوك"، التي تتيح للمستخدمين متابعة الموضوعات التي تهمهم، روابط لمقالات حزبية أكثر من أصدقاء المستخدمين. ورأت الدراسة أن صفحات ومجموعات "فيسبوك" كانت "آلة تنظيم ونشر قوية للغاية".
وقال الباحثون إن نسبة المقالات الإخبارية الكاذبة التي قرأها مستخدمو "فيسبوك" كانت منخفضة مقارنة بإجمالي المقالات الإخبارية التي شاهدوها من أكثر من مصدر.
وفي بحث آخر، وجد الباحثون أن تقليل كمية المحتوى في 23 ألف صفحة لمستخدمي "فيسبوك"، والتي نشرت بواسطة اتصالات "متشابهة التفكير"، لم يغير بشكل ملموس معتقدات أو مستوى الاستقطاب السياسي لأولئك الذين شاركوا. وقال مؤلفو الدراسة: "تتحدى هذه النتائج الروايات الشعبية التي تلقي باللوم على غرف صدى وسائل التواصل الاجتماعي في مشكلات الديمقراطية الأميركية المعاصرة".
وفي دراسة رابعة نظرت إلى 27 ألفا من مستخدمي "فيسبوك" و"إنستغرام"، قال المشاركون إن معرفتهم بالأخبار السياسية انخفضت عندما منعوا من إعادة مشاركة المنشورات خلال التجربة. وخلصت الدراسة إلى أن إزالة زر إعادة المشاركة لم تغير في نهاية المطاف معتقدات المستخدمين أو آراءهم.
وحذر الباحثون من أن النتائج التي توصلوا إليها تأثرت بالعديد من المتغيرات. على سبيل المثال، ربما كان توقيت بعض التجارب قبل الانتخابات الرئاسية لعام 2020 مباشرة يعني أن المواقف السياسية للمستخدمين قد رسخت بالفعل.
قد تكون بعض النتائج قديمة. فمنذ شرع الباحثون في العمل، ابتعدت "ميتا" عن عرض المحتوى الإخباري من الناشرين في خلاصات الأخبار الرئيسية للمستخدمين على "فيسبوك" و"إنستغرام". تقوم الشركة أيضاً بتغيير وتعديل خوارزمياتها بانتظام للحفاظ على تفاعل المستخدمين.
وقال الباحثون إنهم مع ذلك يأملون أن تؤدي الأوراق البحثية إلى المزيد من العمل في هذا المجال، مع مشاركة شركات التواصل الاجتماعي الأخرى.