وكالات – كتابات :
تُمارس منصات التواصل الاجتماعي، مثل: (غوغل؛ وفيس بوك؛ ويوتيوب؛ وتويتر) وغيرها، السيطرة على المحتوى المكتوب والتعبير المرئي لمليارات المستخدمين حول العالم.
وبينما كان الإعتقاد في البداية؛ أن تلك المنصات هي أماكن للتبادل الحر للأفكار. لكن بمرور الوقت وتزايد شعبيتها زادت القيود المفروضة على ما يمكننا فعله أو قوله، بالإضافة إلى الضغط الواقع على هذه المنصات من قِبل جهات خارجية، وعلى هذا النحو، يجب أن ننظر إلى المنصات على أنها تعمل: كـ”حكام جدد” للتعبير عبر الإنترنت.
في هذا السياق؛ تُناقش “جيليان سي يورك”، وهي ناشطة ومؤلفة أميركية في مجال حرية التعبير، في كتاب جديد لها؛ كيفية قيام منصات التواصل الاجتماعي التي تم إنشاؤها في “وادي السيليكون”؛ بولاية “كاليفورنيا” الأميركية، بإنشاء نظام يحكم كيفية تعبير الناس عن أنفسهم عبر الإنترنت، وهي عملية يحكمها نظام أشمل يُسمى: “رأسمالية المراقبة”، وهو مصطلح يُستخدم لوصف عملية شاملة من المراقبة والتحكم في السلوك البشري بهدف الربح.
رقابة مُسيّسة..
تُشير الكاتبة إلى أن الفكرة السائدة بين المدافعين عن الحريات المدنية تركزت على أنه يجب أن تسعى شركات التواصل الاجتماعي للحد من الرقابة من خلال الاستجابة فقط لأوامر المحكمة من البلدان التي تملك فيها مكاتب أو موظفين أو أصول رئيسة أخرى، خشية أن تُصبح من أدوات الرقابة الحكومية، لكن بمرور الوقت، أصبح من الواضح أنه بالإضافة إلى الطلبات الرسمية التي تتلقاها الشركات لإزالة المحتوى أو تقييده، فهناك العديد من الطرق التي تتعامل بها الحكومات مع الشركات بشكل غير رسمي.
وتستدل الكاتبة على ذلك بإحدى سياسات (فيس بوك)، والتي أُطلق عليها اسم: “الإعفاء لأهمية نشر الأخبار”، إذ تعرضت تلك السياسة إلى انتقادات من النشطاء الذين يعتقدون أنها تُفضل خطاب السياسيين على خطابهم، حيث تسمح للمشاركات التي تنتهك معايير المجتمع بالبقاء على المنصة إذا أعتقدت الشركة أن مصلحة الجمهور في رؤيتها تفوق مخاطر الضرر، كما تم اتهام موقع (تويتر) باتخاذ إجراءات مماثلة بمواصلة نشر خطاب الكراهية من قِبل الرئيس الأميركي السابق؛ “دونالد ترامب”، برغم أنه ينتهك قواعد الموقع.
وأكدت “يورك”؛ في معرض انتقادها منصات التواصل الاجتماعي، أنه عندما يُعتبر خطاب المواطن أقل قيمة من خطاب السياسي، وعندما يتم إسكات الناشط من قِبل سلطات الدولة أو شركات التواصل الاجتماعي، فإن ذلك يُشير إلى أشكال القمع الإلكتروني عبر الإنترنت.
الأولوية للربح..
أشارت الكاتبة إلى أن المُتابع لتصريحات مؤسس (فيس بوك)؛ “مارك زوكربيرغ”، يُلاحظ أنه يرى منصته مجرد وسيلة، بينما تأمين حرية التعبير أمر تُقرره الحكومات وشعوبها، وفي هذا الإطار، عندما تأمر حكومة أجنبية؛ (فيس بوك)، بإزالة محتوى ما، فإن الشركة تتبع الأوامر فقط، لأن “زوكربيرغ” ببساطة لا يرى أن حماية الناس وآرائهم هي مسؤولية (فيس بوك).
الملحوظ هنا أن بعض منصات التواصل الاجتماعي تعتمد في وضع سياساتها واتخاذ قراراتها على أبحاث السوق، وهذا أمر مُقلق – بحسب الكاتبة – لأن غالبية أبحاث السوق تُجرى في عدد قليل فقط من الدول التي عادة ما تكون أكثر ثراءً وأكثر تحفظًا، وهو ما يُشير إلى اختيار هذه الشركات خدمة المستخدمين الأكثر ثراءً، على حساب حق الآخرين في حرية التعبير والوصول إلى المعلومات.
وترى الكاتبة أن شركات التواصل الاجتماعي ابتعدت كثيرًا عن مهامها الأصلية، فقد ملأ المسؤولون فيها جيوبهم بالدخل المتولد من المعلنين الذين يستغلون المواطنين في جميع أنحاء العالم، وأصبحوا أكثر تقربًا من السلطة.
المحتوى العنيف..
يسعى الإرهابيون إلى الترويج لإيديولوجياتهم في أوساط الناس، لأن هجماتهم تفتقر إلى المعنى بدون ذلك، وببساطة توفر وسائل التواصل الاجتماعي لأي إرهابي منصته المجانية، مع ذلك فإن الرقابة أحيانًا قد لا تكون حلاً فعالاً.
هنا، أوردت الكاتبة مثالاً يُبرز إحدى المشكلات الأساسية في كيفية تعامل صانعي السياسة في منصات التواصل الاجتماعي مع المحتوى العنيف والمتطرف، فعندما بدأت مقاطع فيديو قطع تنظيم (داعش) للرؤوس بالظهور من “سوريا”؛ في عام 2011، لضحايا مجهولي الهوية اعتُبر إبقاؤها منشورة: “ذا قيمة إخبارية”، لكن عندما تم بث مقتل الصحافي الأميركي؛ “جيمس فولي”، إلى العالم بالطريقة نفسها تغيرت تلك الحسابات وتمت المسارعة إلى حذف المقطع.
مع تزايد مطالب الجمهور ووسائل الإعلام بفعل شيء ما حيال ما يُبثه تنظيم (داعش)، اتخذ (فيس بوك) زمام المبادرة. ففي حزيران/يونيو 2017، أعلنت الشركة أنها بصدد إدخال الذكاء الاصطناعي للمساعدة في إزالة المحتوى المتطرف، وبالتالي بدأ محو مئات الآلاف من مقاطع الفيديو التي تتضمن مثل هذا المحتوى، وبعد بضعة أشهر فقط من بدء الشركات في استخدام الذكاء الاصطناعي؛ تم اتهام (فيس بوك) و(يوتيوب) بإزالة الأدلة على ارتكاب الفظائع، وتعريض القضايا المرفوعة ضد مجرمي الحرب للخطر.
معضلة الإباحية..
ألقت الكاتبة الضوء على الإشكالية التي تواجه منصات التواصل الاجتماعي في التمييز بين المحتوى الذي يتناول العُري والجنس في الفن، من ناحية، والمحتوى الإباحي من ناحية أخرى، إذ أظهرت مجموعة من الوثائق المسربة بشأن سياسات موقع (فيس بوك)؛ أنه حاول وضع سياسة متماسكة في هذا الصدد، فقد تم التمييز بين: “الفن الذي يُنتج يدويًا” مثل، الصور المرسومة والتماثيل، ويُسمح فيه بتصوير العُرى، و”الفن الذي يُنتج رقميًا” باستخدام الوسائل الحديثة، وتفرض عليه قيود أكبر.
وعلى الرغم من أن عددًا قليلاً من منصات التواصل الاجتماعي اختار السماح بنشر المحتوى الإباحي، فقد اختار البعض الآخر، لا سيما (فيس بوك) و(يوتيوب)، حظر هذا المحتوى الصريح منذ البداية، وسعت هذه الشركات سريعًا إلى إيجاد حلول لضمان عدم إغراق منصاتها بالمواد الإباحية، خشية أن تُصبح غير مرغوب فيها بالنسبة للمعلنين.
ولم تكن محاربة الإباحية أمرًا سهلاً، فبغض النظر عن مقدار استثمارات الشركات في مراقبة المحتوى، وجد ناشرو المواد الإباحية طريقة لعرضها على منصات التواصل، وفي النهاية، شددت معظم المنصات عمليات المراقبة، وانخفضت كمية المواد الإباحية، لكن أيضًا تم حظر الكثير من الأشياء الأخرى بالتبعية، مثل المحتوى المتعلق بمعلومات الصحة الجنسية، وذلك بسبب استخدام تقنيات ترشيح واسعة النطاق.
الآلات بدل البشر..
يتم استخدام المعالجة الآلية بشكلٍ متزايد لفرض سياسات المحتوى التي تُحددها منصات التواصل الاجتماعي، لكن على الرغم من جميع التطورات التي تحققت في تطوير التقنيات الآلية، لا تزال خوارزميات التعلم الآلي الحالية تُعاني بعض الإشكاليات في تحديد الفروق الدقيقة بين المفاهيم، كما أن خوارزميات التعلم الآلي تتعلم من مدخلات البيانات.
بالتالي، فإن الذكاء الاصطناعي يعكس نظرة من قاموا بإنشائه، ولذلك يمكن أن يكون متحيزًا أو تمييزيًا.
فيما يتعلق بمراقبة المحتوى المكتوب أو المسموع، فإن المشكلة الواضحة أن الشركات ببساطة لا تستثمر القدر نفسه من الموارد في اللغات غير الرئيسة، كما تفعل في اللغة الإنكليزية، والإسبانية، والفرنسية، وعدد قليل من اللغات الأخرى، وفي بعض الحالات، تفتقر تمامًا إلى دعم لغات معينة، وهذا بالطبع له تأثير على كل من فاعلية المراقبة الآلية والبشرية.
إن الخوارزميات ببساطة لا يمكنها أن تُتيح الاستغناء عن الخبرة البشرية، فبمجرد أن تخرج شركات التواصل الاجتماعي البشر من المعادلة وتترك زمام الأمور للآلات، فلا يمكن تصور نوعية المعايير الثقافية التي سيؤدي إلى انتشارها في المستقبل.
انتشار الكراهية..
بحلول عام 2017، استخدمت مواقع (فيس بوك) و(تويتر) و(يوتيوب) سياسات تحظر معظم أشكال خطاب الكراهية، وهي سياسات نادرًا ما يتم تفسيرها أو تطبيقها بشكل متسق، فعلى سبيل المثال، في حين أن المحتوى الذي يُدافع بشكل صارخ عن “النازية” ستتم إزالته بشكل شبه مؤكد إذا تم الإبلاغ عنه، فإن الخطاب المعادي للمسلمين قد لا يُعامل بالطريقة نفسها.
جدير بالملاحظة هنا؛ أنه بدلاً من معالجة مشكلة خطاب الكراهية بالدقة التي تتطلبها، لجأت معظم الشركات إلى أدوات المراقبة الآلية التي لا يمكنها التمييز بين الفروق الدقيقة التي تُحدد خطاب الكراهية.
ولا تكمن مشكلة المنصات – وفقًا للكاتبة – في أنها تسمح لأي شخص أن يقول ما يشاء، ولكن في أنها مصممة لتحقيق الدخل والاستفادة من كل محتوى يُحقق شعبية، حتى ولو كان يدعو إلى الإبادة الجماعية، وهو ما يُفسر سبب تأخر شركات وسائل التواصل الاجتماعي في كثير من الأحيان عندما يتعلق الأمر بالتصرف بشأن خطاب التحريض والكراهية.
لذلك، ترى الكاتبة أنه يجب معالجة دور المنصات في انتشار ظاهرة خطاب الكراهية، وفي الوقت ذاتها حل المشكلة من جذورها في المنازل وفي الفصول الدراسية، وفي أروقة السلطة.
متطلبات فورية..
أظهرت جائحة (كوفيد-19)؛ أن شركات التواصل الاجتماعي أصبحت لديها الإرادة لفرض رقابة على أشكال معينة من التعبير، ولعل أفضل دليل على ذلك هو اختفاء مقطع فيديو يُسمى: (Plandemic)، كان يُروج للعديد من الإدعاءات الكاذبة حول فيروس (كورونا).
فقد سارعت مواقع: (يوتيوب وفيس بوك وتويتر) لحذف الفيديو، وهو ما اعتبره بعض المراقبين دليلاً على أن الشركات كانت قادرة على التعامل مع المحتوى الضار طوال الوقت. لكنها مع ذلك اختارت عدم القيام بذلك، حيث ركزت انتباهها على الأشياء التي أرادت الحكومات وغيرها من الكيانات القوية منهم أن يفرضوا الرقابة عليها.
أشارت الكاتبة إلى أن هناك تغييرات يجب على شركات التواصل الاجتماعي إجراؤها على الفور، من أبرزها الإفصاح والشفافية حول ما تخضعه للرقابة، وضمان حق كل مستخدم في الاعتراض على عمليات إزالة المحتوى، كما يجب على الشركات تزويد المستخدمين بمعلومات حول كيفية تغذية خوارزميات المحتوى الموصى به بالبيانات، والحصول على موافقة من المستخدم بشأن بياناته التي يتم استخدامها، ومنح المستخدمين المزيد من الخيارات حول ما يرونه خلال تصفحهم.
كما ينبغي أيضًا أن تعمل فورًا على إشراك المجتمع المدني في صُنع السياسات بشفافية، وإجراء تدقيق كامل لتقييم مدى توافق السياسات الحالية مع معايير حقوق الإنسان وإجراء التغييرات حيثما كان ذلك ضروريًا.