هل تزدهر فيسبوك بالعنف والتحريض عليه؟

6 دقائق
هل منصة فيسبوك مفيدة للعالم
حقوق الصورة: تيتو أونر/ آي ستوك/ جيتي إيميج بلس.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

في 23 أكتوبر/ تشرين الأول من العام 2020، حضر بعض موظفي شركة "فيسبوك" (Facebook)- "ميتا" (Meta) حاليّاً- عرضاً تقديمياً في العمل حول سؤال معقد بعض الشيء: "ما هي نسبة المنشورات الضارة أو المفيدة للعالم في صفحة الأخبار الرئيسية؟"، وذلك وفقاً لبعض المعلومات التي قدمها المحامي فرانسيس هوغن ضمن نسخة منقحة إلى هيئة الأوراق المالية والبورصات الأميركية، ولاحقاً إلى الكونغرس. وقد خضعت النسخة المنقحة التي تلقاها الكونغرس إلى تدقيق مجموعة من المنظمات الإخبارية، بما فيها "سليت" (Slate).

وقد ركزت هذه المجموعة من الشرائح على أول استبيان من الشركة حول المنشورات "المفيدة للعالم"، والذي أجراه فريق أبحاث التطبيقات في فيسبوك وفريق التواصل والنزاهة، وهو كما يقول موظف سابق "مسؤول عن تخفيف المحتوى الإشكالي أو التجارب السلبية على المنصة". ووفقاً للشرائح، فإن هذا الاستبيان يهدف إلى "العمل بشكل موضوعي على التقاط نطاق واسع من التجارب السلبية التي واجهها المستخدمون على فيسبوك". 

ما الذي كشف عنه هذا الاستبيان الداخلي؟

 بدءاً من منتصف أغسطس/ آب وصولاً إلى منتصف سبتمبر/ أيلول في العام 2020، قام نحو 143,000 شخص عبر العشرات من البلدان بتصفح منشورات صفحتهم الرئيسية، وطُلب منهم أن يجيبوا عن السؤال التالي حول كل منشور رأوه: "أهذا النوع من المنشورات مفيد للعالم؟" أتاحت المنصة أمام المشاركين خمسة خيارات للإجابة: مفيد للغاية، مفيد إلى حد ما، حيادي، مؤذٍ إلى حد ما، مؤذٍ للغاية. ومن ثم قامت فيسبوك بتجميع الإجابات ضمن فئتين أساسيتين: فئة المنشورات المفيدة للعالم (GFTW)، والتي تتضمن منشورات أشار إليها المشاركون بصفة "مفيد للغاية" أو "مفيد إلى حد ما"، وفئة المنشورات المؤذية للعالم (BFTW)، والتي تتضمن منشورات أشار إليها المشاركون بصفة "مؤذٍ للغاية" أو "مؤذٍ إلى حد ما".

اقرأ أيضاً: ما الذي نحتاج إلى معرفته حول تسرب بيانات فيسبوك؟

ما الذي ترمي إليه الدراسة؟

وقال الباحثون إن هذه الدراسة "تهدف إلى وضع قياس موضوعي لآراء المستخدمين الشخصية وأفكارهم". وبالتالي، وبدلاً من تقديم أي توجيه أو تعريف لما يمكن اعتباره "مفيداً" أو "ضاراً"، تركت فيسبوك للمستخدمين حرية الإجابة كما يشاؤون، دون أي تدخل. وقد قال أحد أفراد الفريق إن السؤال صِيغ بهذه الطريقة للمساعدة على "توليد بيانات تدريب لنماذج الحذف الشخصية التي تقوم بتخفيض التجارب السلبية غير المرغوبة ضمن صفحة المنشورات الرئيسية"، وذلك "لأن الناس لا يرغبون عموماً برؤية الأشياء التي يشعرون بأنها مؤذية للعالم". ويعني هذا أن فيسبوك تأمل بأن النتائج ستساعد أنظمة الذكاء الاصطناعي على تعلم التمييز بشكل أفضل بين المحتوى GFTW والمحتوى BFTW.

اقرأ أيضاً: خوارزميات الإعلانات في فيسبوك ما زالت تستبعد النساء من رؤية إعلانات التوظيف

نتيجة صادمة: يبدو أن العالم يتفاعل أكثر مع المنشورات الضارة

ولكن الاستبيان وجد أن المنشورات التي حققت أكبر نسبة تفاعل، أو تلك التي وصلت إلى أكبر عدد من المشاركين، كانت أقرب إلى BFTW بشكل واضح من تلك التي لم تحقق نفس المستوى من التفاعل أو الانتشار. وعلى حين تساعد عمليات إعادة المشاركة على توزيع معظم المحتوى ضمن فئة BFTW، فإن المنشورات الأصلية تنتمي إلى صنف منشورات فيسبوك "الأكثر عدداً ضمن فئة BFTW".

تتمحور المنشورات التي تُعتبر غالباً من فئة BFTW حول مواضيع مثل الجريمة، والسياسة، و"الألعاب والأحاجي واللعب". (ويقول التعليق على الشريحة التي تتضمن هذه المعلومة إنه "قد يكون من المفاجئ أن تحقق الألعاب هذه المرتبة العالية، ولكن ستزول المفاجأة بمجرد اطلاعك على أكثر المسائل إثارة للجدل والنزاعات على الإنترنت خلال العقد المنصرم"). ولكن، وكما تذكر إحدى الشرائح، فإن البيانات تبين أيضاً أن المنشورات التي تتمحور حول السياسة والمسائل الاجتماعية –والتي تصنفها فيسبوك ضمن فئة "المحتوى المدني"- هي أكثر ترجيحاً للتصنيف ضمن فئة BFTW حتى لو لم تحقق انتشاراً واسعاً. وتذكر شريحة أخرى أيضاً أن "فئة BFTW كانت أكثر انتشاراً ضمن المنشورات التي توقعت أنظمة الذكاء الاصطناعي أنها تتضمن: العنف، والتحرش الجنسي، وخطاب الكراهية، والتحريض على العنف، والعري". وتضيف شريحة أخرى أن "المشاركين كانوا أكثر ميلاً إلى تصنيف المنشورات ضمن صفحتهم الأساسية ضمن فئة BFTW إذا كانوا من الرجال، ومن الشرائح العمرية المتقدمة في السن أو اليافعة، ومن المستخدمين الأقل خبرة أو الذين لديهم عدد صغير جداً أو كبير جداً من الأصدقاء على الإنترنت".

اقرأ أيضاً: شكاوى تطالب باعتبار فيسبوك شركة احتكارية والقضاء يشكك في قوة الحجة

اختلاف التصنيف باختلاف الدول

وقد تمخضت نتائج الاستبيان عن بضعة ألغاز مثيرة لاهتمام الفريق البحثي، حيث يلحظ العرض التقديمي أن مستخدمي فيسبوك غالباً ما يشتكون من عدم رؤية ما يكفي من المنشورات من أصدقائهم، وعلى الرغم من هذا، فإن المنشورات الأصلية كانت تُصنف في أغلب الأحيان ضمن فئة BFTW. وبشكل عام، فإن الأميركيين من مستخدمي فيسبوك كانوا أكثر ترجيحاً بثلاث مرات لتصنيف المنشورات "المدنية" ضمن فئة BFTW بالمقارنة مع المنشورات غير المدنية (أي غير المتعلقة بالمسائل السياسية والاجتماعية). وعلى العكس من هذا، فإن معظم البلدان الأخرى التي شملها الترجيح لم تُظهر هذا الفرق الشاسع في النظرة إلى المنشورات المدنية وغير المدنية، بل إن المنشورات المدنية كانت أقل احتمالاً للتصنيف ضمن فئة BFTW في بعض الدول، مثل أنغولا ونيبال وغواتيمالا.

ولكن، ماذا عن المنشورات التي صنفها المشاركون ضمن فئة GFTW؟ هذا سؤال أكثر تعقيداً. حيث تشير الدراسة إلى أن المنشورات المصنفة ضمن فئة BFTW "تتضمن عادة محتوى سلبياً"، ولكن المنشورات المصنفة ضمن فئة GFTW كانت أكثر تنوعاً، فهي تتراوح بين منشورات حول تطورات إيجابية في العالم وصولاً إلى منشورات وجدها المستخدمون ببساطة، وبشكل موضوعي، "مضحكة". وهنا تأخذ الأمور منحى مثيراً للقلق، فقد ظهر بين الأمثلة مثالان بارزان هما عبارة عن منشورين حازا، وعلى نطاق واسع، على تصنيف GFTW، وهما يتضمنان ادعاءات تروج لأفكار منظمة QAnon، إضافة إلى مقالة تزعم أن جيكوب بليك، وهو رجل أميركي أفريقي أعزل تعرض إلى إطلاق النار من قبل شرطي في مدينة كينوشا في أغسطس/ آب من العام 2020، "مسؤول تماماً عما حدث له". وعلى حين يقول الباحثون إن معظم منشورات فئة GFTW كانت "بريئة أو إيجابية إلى حد ما"، فإنهم يعترفون بأن بعضها تتضمن، على سبيل المثال، تعليقات معادية للسامية.

اقرأ أيضاً: مراجعة كتاب: لماذا تعجز فيسبوك عن إصلاح نفسها؟

خلاصة البحث

إذن، ماذا يمكن أن نستنتج مما سبق؟ من الجدير بالملاحظة أنها ليست المرة الأولى التي تحاول فيها ميتا (فيسبوك سابقاً)، مع مستخدميها، سبر مدى فائدة فيسبوك بالنسبة للعالم، أو مدى التطابق بين ما هو GFTW وما هو GFFBL (وهو اختصار ابتكرته بنفسي اختصاراً لعبارة "مفيد لأرباح فيسبوك"، أجل... أنا أستطيع فعل هذا أيضاً). وقد أوردت مراسلة ذا غارديان جوليا كارين وونغ منذ ثلاث سنوات رسالة في العام 2012 بالبريد الإلكتروني من قبل رئيس فيسبوك التنفيذي مارك زوكربيرغ تتضمن اصطلاحاً مشابهاً، وإن كان في سياق غير بحثي، وقد نُشر أمام العامة في المملكة المتحدة. في البرلمان، أما الجزء الذي ركزت عليه فهو التالي:

"في بعض الأحيان، فإن أفضل وسيلة لتمكين الناس من مشاركة شيء ما هو قيام مطور ببناء تطبيق أو شبكة خاصة لهذا النوع من المحتوى، وجعل التطبيق واسع الانتشار على مستوى شعبي بوصل فيسبوك به. قد يكون هذا مفيداً للعالم، ولكن ليس مفيداً بالنسبة لنا، ما لم يقم المستخدمون أيضاً بمشاركة المحتوى على فيسبوك بحيث يؤدي هذا المحتوى إلى زيادة قيمة شبكتنا".

اقرأ أيضاً: موظفة سابقة تفضح فيسبوك وتقول إن خوارزمياتها خطرة… لكن لماذا؟

فيسبوك المفيد للعالم!

وانسجاماً مع مجموعة الشرائح المذكورة أعلاه، وفي فبراير/ شباط من العام 2018 بعد فضيحة كامبريدج أناليتيكا، أبلغ بعض المستخدمين عن ظهور سؤال استبيان على صفحتهم، وفق الصياغة التالية: "نحن نرغب بتحسين أدائنا. يرجى منك تحديد وجهة نظرك حول العبارة التالية، هل توافق عليها أم لا؟ فيسبوك مفيد للعالم". وكانت هناك خمسة خيارات: موافق إلى درجة كبيرة، موافق، حيادي، غير موافق، غير موافق بشدة. حدث هذا بعد فترة قصيرة من تصريح زوكربيرغ لصحيفة نيويورك تايمز إنه يريد لأطفاله أن "يشعرون أن ما بناه والدهم كان جيداً للعالم".

وبعد ذلك، بطبيعة الحال، استُخدم هذا السؤال مرة أخرى في استبيان 2020 من مجموعة الشرائح. وقد ذُكر هذا الاستبيان الشامل للتصنيف بين فئتي BFTW وGFTW (دون ذكر هذه الاختصارات) في صحيفة نيويورك تايمز في نوفمبر/ تشرين الثاني من العام 2020، كما لحظت الصحيفة أن الاستبيان دفع بالموظفين إلى تدريب خوارزمية تعلم آلي تقوم بتخفيف ظهور منشورات BFTW. ووفقاً للتايمز، فقد نجحت هذه الأداة فعلياً في التخفيف من انتشار محتوى BFTW، وفي الواقع، فقد بلغ نجاحها حداً أدى إلى التقليل من الوقت الذي يمضيه المستخدمون على فيسبوك، ما أثار مخاوف كبار التنفيذيين، مثل زوكربيرغ نفسه. ولهذا، عُدلت الخوارزمية لتتابع عملها في التخفيف من المحتوى المسيء، ولكن بوتيرة أقل، إلى أن عاد مستوى استخدام فيسبوك إلى عهده السابق. وقد تبين، بالتالي، أن منشورات BFTW تنتمي في الواقع إلى فئة GFFBL أيضاً.

إن نشر أوراق فيسبوك قد يعطينا مزيداً من المعلومات حول النتائج الدقيقة، ويرسم صورة أكثر وضوحاً حول ذلك القرار. ووفقاً لتقرير نشرته صحيفة نيويورك تايمز في شهر يوليو/ حزيران 2021، فإن زوكربيرغ يواصل الاعتماد على قياسات GFTW (إضافة إلى مقياس آخر، CAU، وهو اختصار لعبارة "يعبر عن اهتمام بالمستخدمين") في اتخاذ قراراته حول مراقبة محتوى فيسبوك، على الرغم من أن موظفيه أنفسهم في فريق التواصل والنزاهة قالوا إن التصنيف ليس صحيحاً تماماً. (ومن النقاط الهامة المذكورة في الشرائح: "إن استبياناً حول معيار GFTW يؤمن معلومات محدودة حول صحة النظام البيئي للمنصة"). إضافة إلى ذلك، وعلى الرغم من معرفة مهندسي وعلماء البيانات في فيسبوك بأن محتوى BFTW يعج بالعنف وخطاب الكراهية، فإن كبار التنفيذيين، على ما يبدو، قرروا عدم مراقبة هذا المحتوى بصرامة أكبر، مخافة تقليل المستخدمين من استخدامهم للمنصة بانتظام. ويمكن لأي كان أن يقرأ هذا القرار كاعتراف ضمني من قادة فيسبوك بحقيقة منتشرة منذ زمن بين منتقدي الشركات التكنولوجية الكبيرة، وهي أن وسائل التواصل الاجتماعي تزدهر بالعنف وتحرض عليه.

ولكن، ماذا عن المستخدمين الذين لم تُؤخذ آراؤهم بعين الاعتبار مباشرة من قبل فيسبوك؟ يظهر استبيان من شركة "مورنينغ كونسلت" (Morning Consult) نُشر في أكتوبر أن مستوى التأييد البحت لفيسبوك ضمن الولايات المتحدة وصل إلى أدنى مستوى له على الإطلاق، كما أن هذا المستوى آخذ بالتراجع في بلدان أخرى أيضاً. ومن المحتمل أن قسماً أكبر من مستخدمي فيسبوك البالغين 3 مليار شخص يعتبرونه مؤذياً للعالم فعلياً، وذلك مع انضمام المزيد من الأشخاص إلى التوجه المضاد لفيسبوك خلال السنة التالية لاستبيان BFTW.

فيوتشر تينس مشروع مشترك بين مؤسسة سليت ومنظمة نيو أميركا وجامعة أريزونا الحكومية، وذلك لدراسة التكنولوجيات الناشئة والسياسات العامة والمجتمع.