كيف يتحكم فيسبوك في مراقبة المحتوى الإلكتروني؟
أعلن مؤسس Meta، مارك زوكربيرج، عن خطة للقضاء على مدققي الحقائق وتقليل مستوى الرقابة بشكل كبير على منصاته، بما في ذلك Facebook وInstagram وThreads. وذكر أيضًا أن الشركة ستزيد التوصيات بشأن المحتوى السياسي، مما يعكس تغييرات كبيرة في استراتيجية الشركة فيما يتعلق بحرية التعبير.
وشدد زوكربيرج في رسالة بالفيديو على أن حرية التعبير ستكون الأولوية، وأشار إلى أن هذه التغييرات تتزامن مع عودة دونالد ترامب إلى البيت الأبيض. وأعلن أن ميتا ستستبدل مدققي الحقائق بنظام “تعليقات المجتمع” المشابه للمنصة X (المعروفة سابقًا باسم تويتر) والتي تعتمد على قيام المستخدمين بإضافة سياق وتحذيرات إلى المحتوى المثير للجدل.
وأشار زوكربيرج إلى أن مدققي الحقائق في ميتا “متحيزون سياسيًا بشدة”، مما يضر بثقة المستخدم بدلاً من تعزيزه. وكشف أيضًا عن قرار نقل فرق الإشراف على المحتوى من كاليفورنيا إلى تكساس لمنع “التحيز السياسي”. وأضاف أن التغييرات الجديدة يمكن أن تقلل من اكتشاف المحتوى غير الصحيح.
وفي هذا التقرير نقدم طرق مراقبة محتوى فيسبوك:
1. الذكاء الاصطناعي والخوارزميات
ويعتمد فيسبوك بشكل كبير على تقنيات الذكاء الاصطناعي لتحليل ومراجعة المحتوى. يتم تدريب الأنظمة على اكتشاف الصور والنصوص ومقاطع الفيديو التي قد تنتهك سياسات النظام الأساسي. على سبيل المثال، ارتفع عدد المحتوى الذي اتخذت الشركة إجراءات ضده في فئة “العنف المصور” من 1.2 مليون مشاركة في الربع الأخير من عام 2017 إلى 3.4 مليون مشاركة في الربع الأول من عام 2018. ويرجع ذلك إلى تحسين أنظمة الكشف و استخدام تقنيات مطابقة الصور. تقوم الخوارزميات بمقارنة المحتوى الجديد الذي تم الإبلاغ عنه مسبقًا.
2. فرق المراجعة البشرية
بالإضافة إلى الذكاء الاصطناعي، يوظف فيسبوك آلاف المراجعين البشريين في جميع أنحاء العالم. وتتمثل مهمتهم في مراجعة تقارير المحتوى المخالف التي يرسلها المستخدمون وتقييم الحالات التي لم يتم أخذها في الاعتبار بشكل صحيح بواسطة الخوارزميات.
3. نظام الإبلاغ المجتمعي
يسمح فيسبوك للمستخدمين بالإبلاغ عن المحتوى المثير للجدل أو المسيء. يتم إرسال هذه التقارير إلى فرق المراجعة أو أنظمة الذكاء الاصطناعي لتحليلها واتخاذ القرار المناسب. إلا أن هذه الآلية تعرضت لانتقادات بسبب استخدامها المفرط لإسكات بعض الأصوات، خاصة السياسية أو الثقافية.
الفيسبوك وحذف محتوى غزة
وقال العديد من الناشطين إن فيسبوك حذف المنشورات والصور ومقاطع الفيديو التي توثق العنف والانتهاكات في غزة. في كثير من الحالات، تلقى المستخدمون إشعارات بأن المحتوى الخاص بهم “ينتهك معايير المجتمع” على الرغم من أنه لا يحتوي على خطاب يحض على الكراهية أو خطاب يحض على الكراهية. لاحظ بعض المستخدمين أيضًا انخفاضًا في مدى وصول منشوراتهم المتعلقة بغزة، حيث لم تعد تظهر للعامة بنفس الرؤية التي كانت عليها من قبل.
واتهم الناشطون أطرافا إسرائيلية باستخدام وظيفة إعداد التقارير بشكل منهجي لاستهداف المحتوى الذي يدعم فلسطين. يعتمد هذا النهج على إرسال أعداد كبيرة من التقارير لإجبار الخوارزميات على حذف المحتوى تلقائيًا أو تقديمه إلى فرق المراجعة، والتي من المفترض أنها يمكنها في بعض الأحيان اتخاذ قرارات متحيزة.
تم الإبلاغ أيضًا عن أن Facebook يعمل مع الحكومات لضمان الامتثال للقوانين المحلية. في حالة إسرائيل، يستجيب فيسبوك للضغوط الحكومية لإزالة محتوى معين ولكنه لا يتعامل مع المحتوى الإسرائيلي بنفس المعايير، وخاصة المنشورات التي يمكن أن تحرض على العنف أو الكراهية.