مازال التحريض والعنف الديني يتسرب إلى الشبكة .. “فورين بوليسي”: لماذا فشلت “فيس بوك” في بنغلاديش ؟

مازال التحريض والعنف الديني يتسرب إلى الشبكة .. “فورين بوليسي”: لماذا فشلت “فيس بوك” في بنغلاديش ؟

وكالات – كتابات :

يبدو أن الإستراتيجية التي تتبعها منصة (فيس بوك) لمراقبة المحتوى؛ فشلت في كبح أعمال العنف في “بنغلاديش”.. وتناول هذا الموضوع بالتحليل كلٌ من: “مُبشار حسن”؛ زميل مساعد في مبادرة البحوث الإنسانية والإنمائية بجامعة “غرب سيدني”، و”غيوفري ماكدونالد”؛ مدير برنامج “بنغلاديش” في المعهد الجمهوري الدولي، و”وآي وآي هوي”؛ مديرة برنامج التكنولوجيا والديمقراطية في المعهد الجمهوري الدولي، محاولين توضيح كيفية إصلاح هذه السياسات، وذلك في تقرير نشرته مجلة (فورين بوليسي) الأميركية.

في مستهل التقرير، يُشير الكُتَّاب إلى إحدى أسوأ موجات العنف التي عصفت بـ”بنغلاديش”؛ في تشرين أول/أكتوبر الماضي، والتي لم تشهدها البلاد منذ سنوات، عندما هوجمت مئات المنازل والمعابد الهندوسية، ما أسفر عن مقتل ستة أشخاص على الأقل وإصابة عشرات آخرين، على خلفية منشوريَن محرِّضيَن انتشرا سريعًا على منصة التواصل الاجتماعي الشهيرة؛ (فيس بوك)، إذ بثَّ المنشور الأول فيديو يُظهِر تدنيس المصحف الشريف في معبد هندوسي، أما المنشور الثاني فقد ظهر فيه رجلٌ هندوسيٌّ ينتقد الدين الإسلامي.

كيف فشلت سياسات “فيس بوك” في تحجيم خطاب الكراهية ؟

يوضح الكُتَّاب أن (فيس بوك) كان يُدرك تمامًا، منذ تأسيسه في عام 2004، حجم المخاطر المحتملة للمنصة، ولطالما أحتفظت شروط الخدمة الخاصة بـ (فيس بوك) بالحق في حذف الخطابات المحرِّضة الخطيرة، ومع تزايد انتشار المحتوى الضار على المنصة، كانت إدارة (فيس بوك) تُحدِّث سياساتها بصفة دورية لتحديد مبادئها التوجيهية على نحوٍ أفضل، وعلى مدار سنوات، كانت الشركة المالكة لـ (فيس بوك)؛ والمعروفة حاليًا باسم: “ميتا”، تضخ مليارات الدولارات لتحسين تدابير: “السلامة والأمن” عبر جميع منتجاتها، والتي تشمل تطبيق (واتس آب) ومنصة (إنستغرام).

بيد أن هذه الجهود فشلت في كبح جماح خطاب الكراهية التحريضي الذي يُغذِّي العنف، وقبل بضعة أسابيع من اندلاع هجمات “بنغلاديش”، أدلت “فرانسيس هوغن”، الموظفة السابقة في شركة (فيس بوك)، بشهادتها أمام “الكونغرس” الأميركي بشأن الآثار الضارة للشركة فيما يتعلق بنشر خطابات الكراهية وتغذية الانقسامات الاجتماعية، وأكدَّت “فرانسيس” أن (فيس بوك): “يُؤجج العنف العِرقي”، وأن استجابة الشركة، من خلال مراجعة سياساتها المتعلقة بالتنمر والمضايقات، لم تُقدم شيئًا يُذكر لحل الأزمة.

ويؤكد التقرير أن النهج المخصص والتدريجي الذي تتبعه شركة (فيس بوك) لمراقبة المحتوى المنشور على منصتها؛ فشل في كبح جماح العنف في “بنغلاديش” وفي مختلف أنحاء العالم، مخلِّفًا عواقب كارثية وخيمة، وفي “بنغلاديش”، تُعد ادِّعاءات إزدراء الأديان والاستخفاف بها، التي يُطلقها أفراد من عامة الشعب في أحيان كثيرة، فعَّالة جدًّا في استنفار الأغلبية المسلمة في البلاد، وقبل وقت طويل من تأسيس (فيس بوك)، كانت حملات الكراهية تلك تنتشر من خلال حركات الشوارع والكلام شفاهةً، ونتج عنها تداعيات شديدة الخطورة وعنيفة في الغالب.

كيف يتصدى “فيس بوك” لخطاب الكراهية ؟

يُنوِّه التقرير إلى أن (فيس بوك) يعتمد على إستراتيجية متعددة الأوجه، لمكافحة خطاب الكراهية، وتتضمن خوارزميات الإبلاغ عن المستخدمين ومراقبي المحتوى الداخلي، وقد صُمِّمت خوارزميات الشركة لتحديد المحتوى الضار وحذفه، بينما يُراجع نظامها الآلي المنشورات التي يُبلغ عنها المستخدمون، وعندما يفشل النظام في الوصول إلى نتائج، يُرسل المنشور إلى المشرفين البشريين على المحتوى، والذي يُواجه عديدٌ منهم عقبات لغوية بالأساس، فضلًا عن أنهم يفتقرون إلى القدرة على مراجعة حجم هائل من المحتوى.

ونظرًا لانتشار المحتوى الضار على منصتها، قطعت شركة (فيس بوك) خطواتٍ واسعة في تكوين الخبرات وتعزيزها بشأن ديناميكيات الصراعات والعمل على تقليل حدتها وفقًا لذلك، وفي “بنغلاديش”، حذفت (فيس بوك) بعض الحسابات المرتبطة بالقرصنة والبريد العشوائي والمعلومات المضللة المتعلقة بالانتخابات، وعيَّنت المنصة، في الآونة الأخيرة، أول مدير للسياسة العامة في البلاد ووسَّعت من طاقم الموظفين الناطقين باللغة البنغالية.

لكن ثبُت أن إستراتيجية تبني الاعتدال تلك غير كافية؛ إذ كشفت تسريبات خاصة بـ (فيس بوك)، في العام الماضي؛ أن خوارزمية (فيس بوك) لا تلتقط سوى أقل من: 5% من خطابات الكراهية المنتشرة على منصتها على الإنترنت، وظل الفيديو، الذي أشعل فتيل أعمال العنف الأخيرة في “بنغلاديش”، على الإنترنت لمدة ستة أيام وجرت مشاركته أكثر من: 56 ألف مرة قبل أن يحذفه (فيس بوك)، وعلى الرغم من الجهود التي تبذلها، كانت سياسة (فيس بوك) جزئية باستمرار ولا تحظى بالتمويل الكافي، مع قيام المشرفين بأعمالهم في ظل ظروف صعبة مقابل أجور زهيدة.

طريقة إصلاح هذه السياسات..

يُلفت التقرير إلى أن إحدى المشكلات الرئيسة تتمثل في أن (فيس بوك) ركَّز إلى حدٍ كبيرٍ جهودَه على نشر محتوى معتدل في الدول الغربية الناطقة باللغة الإنكليزية، بينما تجاهل المناطق الأخرى، حيث يُمكن أن يكون خطاب الكراهية أخطر، ومن أجل الحد من العنف في هذه الدول على نحو أفضل، يجب أن تضمن المنصة تخصيص قدرٍ كافٍ من الموارد، بما فيها رفع معنويات الموظفين وإضافة مصادر محلية وتوسيع نطاق التدريب على تمييز خطابات الكراهية ليشمل مزيدًا من اللغات، وتحسين معرفة معدِّي المنتجات بالسياق الخاص بكل دولة وثقافتها واتجاهاتها، ويُمكن للحكومات الضغط على (فيس بوك) لإدخال هذه التغييرات من خلال استخدام الأدوات التنظيمية الأساسية، مثل قانون الخدمات الرقمية لـ”الاتحاد الأوروبي”، التي ترفع مستوى الشفافية والمساءلة.

ويُمكن أن يؤدي توسيع نطاق الشراكات مع خبراء خارجيين، مثل مجموعات المجتمع المدني الموثوق بها والأكاديميين، إلى تمكين (فيس بوك) من تمييز المحتوى المشكوك فيه بفاعلية وتحديد مؤشرات الإنذار المبكر للصراع، ومن خلال استيعاب السياق المحلي والتقاليد والمظالم التاريخية، يُمكن لمنصة (فيس بوك) تقييم أنواع المحتوى، التي من المحتمل أن تؤجج العنف، تقييمًا أفضل، وبالتوازي مع هذه الجهود المبذولة بصورة سليمة، ينبغي لـ (فيس بوك) التفكير في إعداد مباديء توجيهية إقليمية أو خاصة بكل دولة حول خطابات الكراهية عالية الخطورة، وفي “بنغلاديش”، كان من الممكن أن تُساعد مثل هذه السياسات المشرفين على إدراك أن المحتوى الاستفزازي عن الإسلام قد يُحرِّض على العنف أكثر من غيرها من المنشورات.

ويُشدِّد التقرير على أنه يجب على (فيس بوك) أيضًا، لمناهضة المحتوى الضار، الإلتزام بنشر البيانات التفصيلية حول خطاب الكراهية، الذي ينتشر في بعض المناطق بصورة مختلفة، ولا يُوجد حاليًا سوى قدرٍ قليل من البيانات العامة حول انتشار خطاب الكراهية، وفي العام الماضي، سرَّحت الإدارة التنفيذية للشركة فريقًا داخليًّا أنشأ برنامج (كراود تانغل) وأداره، وهي أداة عامة مملوكة لشركة (فيس بوك) لتحليل البيانات، بعد أن استخدم الباحثون والصحافيون بياناتها لإبراز صورة سلبية للمنصة، ومن خلال إطلاق مزيد من البيانات الشخصية المسجلة، والسماح للباحثين بإجراء تحليلاتهم الخاصة، سيُساعد (فيس بوك) واضعي السياسات على ابتكار حلول معزَّزة ومحددة الهدف.

ومنذ عام 2018؛ راقب فريق: “البلدان المعرَّضة للخطر”؛ التابع لـ (فيس بوك)، المحتوى الضار وحذفه في الدول الأشد عرضة لاندلاع العنف، لا سيما خلال الحملات الانتخابية. ومع ذلك، أدَّى التمويل غير الكافي إلى تقييد عدد الأماكن التي يمكن للفريق التركيز عليها، ومن المتوقع أن تُساعد زيادة الموارد على توسيع (فيس بوك) نطاق اهتمامه إلى دول مثل “بنغلاديش”، التي تُعاني من توترات دينية شديدة، بالإضافة إلى أن البلاد معرَّضة بصورة خاصة لاندلاع العنف الطائفي.

تغيير الخوارزميات..

يُشير التقرير إلى أن (فيس بوك) يُمكنه، في المناطق التي تشهد صراعات حاليًا، وتُعد أكثر عرضة لمخاطر خطاب الكراهية، تنفيذ سياسة مؤقتة بعدم التسامح مطلقًا يؤدي إلى تعديل المحتوى الاستفزازي الذي تتزايد فرص انتشاره خلال فترات التوتر الحاد؛ بينما ينبغي أن تُحدِّد الخوارزميات، التي ستُصمَّم لتحديد الكلمات الخاصة بكل دولة المعروف أنها تزيد من حدة التوترات، المحتوى الذي ربما يكون من مفردات الخطاب المحرِّض على الكراهية، ومن أجل منع هذه المنشورات من الانتشار السريع أثناء مراجعة المشرفين البشريين، يجب على (فيس بوك) تعطيل المشاهدات مؤقتًا وجميع أشكال التفاعلات مثل الإعجاب والتعليقات والمشاركات أو تقييدها قبل اتخاذ قرار داخلي.

ويختم الكُتَّاب تقريرهم بالقول إنه مع استمرار تصدي (فيس بوك) لخطاب الكراهية والمعلومات الزائفة والمحتوى الضار، سيواصل العنف الديني العصف بـ”بنغلاديش”، ومع إنضمام أكثر من: 47 مليون بنغلاديشي إلى المنصة الآن، فإن مخاطر التقاعس عن العمل أفدح من أن تجاهلها ويجب على (فيس بوك) وغيرها من منصات التواصل الاجتماعي، التي تتطلع إلى التوسُّع على الصعيد العالمي، أن يتصدر كبح جماح خطاب الكراهية سُلَّم أولوياته القصوى، وقد حان الوقت لكي تتبنى (فيس بوك) أسلوبًا هادفًا ومدعومًا بموارد وفيرة لتخفيف حدة الخطاب الذي يحض على الكراهية، وهو النهج الذي يُركِّز على التحرر والسلامة.

أخبار ذات صلة

أخبار ذات صلة