وكالات – كتابات :
مع تطور تقنيات “الذكاء الاصطناعي”، باتت عملية تزييف الحقائق ونشر المعلومات المضللة أكثر تعقيدًا وشيوعًا في العالم من خلال نشر صورة أو مقطع فيديو أو نص تمت مشاركته على وسائل التواصل الاجتماعي، لينقل فكرة أو شعورًا معينًا للتأثير على الرأي العام.
من هنا، سعت دراسة للكاتب؛ “تود هيلمز”، إلى توضيح كيف يتم ذلك التزييف، وأسبابه، والأهم آليات مواجهته، في ظل المخاوف من عواقب الترويج للمعلومات المضللة على المستويين المحلي والدولي.
حملت الدراسة التي نشرتها مؤسسة (راند) الأميركية؛ في تموز/يوليو 2022، عنوان: “الذكاء الاصطناعي: التزييف العميق وتزييف الحقائق”، إذ تُحلل مخاطر هذا التزييف من خلال حالات استهداف “روسيا” لانتخابات “الولايات المتحدة”؛ لعام 2016، وكذلك “الصين” للمتظاهرين في “هونغ كونغ”، فضلاً عن المشككين في فعالية لقاحات فيروس (كورونا)؛ عام 2019؛ (بحسب إدعاءات الدراسة المنتقاة لأمثلة غير مجردة أو موضوعية بل موجهة سياسيًا مواكبة للدعايات الأميركية المضللة في الأساس)، كذلك تناولت الدراسة طريقة عمل تقنيات التزييف، مشيرة إلى كونها فيديوهات تحمل لقطات معدلة صناعيًا يتم فيها تعديل الوجه أو الجسم المصور رقميًا لتظهر كشخص أو شيء آخر.
تقنيات التزييف..
أبرزت الدراسة تنوع تقنيات واستخدامات “الذكاء الاصطناعي” في نشر المعلومات المضللة، من أبرزها ما يلي:
- تقنية الفيديوهات المفبركة “Deepfakes Videos”..
إذ تحتاج الفيديوهات المزيفة لدرجة عالية من الدقة واستخدام متقن للوسائل التكنولوجية، بالإضافة إلى توافر الوقت اللازم والإمدادات المالية وأيضًا للمهارة الفردية، واستشهدت الدراسة بالفيديو الخاص بالممثل الأميركي؛ “توم كروز”، الذي انتشر على تطبيق الـ (تيك توك)، وحظى بأكثر من: 15.9 مليون مشاهدة، وتطلب هذا الفيديو استخدام تقنيات “الذكاء الاصطناعي” على كثير من الفيديوهات الخاصة بالممثل المشهور والتدرب على إنشائه لمدة شهرين.
تناولت الدراسة أيضًا عددًا من المواقع الشهيرة التي تسمح بالتلاعب بالصور والمقاطع، منها موقع (Reface)؛ الذي يسمح للمستخدمين بمبادلة الوجوه في مقاطع الفيديو وملفات (GIF) الحالية؛ وموقع (MyHeritage)؛ الذي يُحّرك صور الأقارب المتوفين؛ و(Zao) التطبيق الصيني الذي يستخدم تقنية (deepfake)؛ للسماح للمستخدمين بوضع وجوههم على شخصيات شهيرة.
- تقنية نسخ الصوت “Voice Cloning”..
وهي طريقة يتم من خلالها التلاعب بالحقائق، حيث تسمح العديد من التطبيقات عبر الإنترنت والهواتف المحمولة للمستخدمين القيام بمحاكاة أصوات المشاهير، مثل تطبيقات (Celebrity Voice Cloning) و(Voicer Famous AI Voice Changer)، واستشهدت الدراسة بواقعة تلاعب برئيس تنفيذي لإحدى شركات الغاز؛ والذي صرَّح بأنه تلقى اتصالاً من شخص انتحل صوت مديره يطلب منه تحويل: 220 ألف يورو لحساب بنكي في “المجر”.
- تقنية الصور المزيفة “Deepfakes Images”..
إذ تأتي هذه الصور على شكل لقطة مصورة لوجه شخص تبدو حية للغاية؛ على الرغم من كونها غير حقيقية، مشيرًا لواقعة قيام مسؤول في إدارة الرئيس الأميركي السابق؛ “دونالد ترامب”، بتركيب صورة للباحثة الروسية؛ “كاتي جونز”، الباحثة في الشأن الروسي والأوراسي بمركز (الدراسات الإستراتيجية والدولية)، على حساب في الـ (لينكد إن) متصل بشبكة حسابات صغيرة للتأثير في الرأي العام.
- تقنية النصوص المفتعلة “Generative Text”..
إذ يتم استخدام نماذج اللغة الموجودة بأجهزة الكمبيوتر لإنشاء النصوص المختلفة، وهي التي يمكن أن يستغلها الخصوم الأجانب لـ”الولايات المتحدة” لعمل دعاية لغرض ما على نطاق واسع، مشيرًا لما نشرته جريدة (الغارديان)؛ في مقال بعنوان: “هل أصابك الخوف بعد، يا بشر ؟”، مدعية بأن من قام بكتابته هو إنسان آلي مستخدمًا معجمًا لغويًا مدربًا على استخدام الكلمات، وتبرز الدراسة خطورة انتشار مثل هذه الظواهر في المجتمعات المختلفة ومخاطر تأثيرها على الأمن القومي حال استخدامها كسلاح من قبل الخصوم أو الجهات الضارة.
أسباب متعددة..
ثمة أسباب متعددة لاستخدام تقنيات “الذكاء الاصطناعي” في نشر المحتوى المزيف من أبرزها:
- التلاعب بالانتخابات من خلال نشر مقطع فيديو يُظهر مرشحًا يُشارك في فعلٍ شائن أو يدلي ببيان مُثّير للجدل.
- زرع الانقسامات الاجتماعية، مثلما قامت “روسيا” بنشر الدعاية الموجهة لتقسيم الجمهور الأميركي ومهاجمة وتشويه سمعة الأطراف السياسية المعارضة؛ بحسب إدعاء الكاتب.
- نزع الثقة في المؤسسات والسلطات، بنشر فيديو يدعي ممارسة ضابط شرطة العنف ضد مواطنين أو قاضٍ يُناقش بشكلٍ خاص طرق التحايل على النظام القضائي.
- تقويض الصحافة والمؤسسات الإخبارية البارزة ومصادر المعلومات الجديرة بالثقة، بالإضافة لزرع الفتنة حتى في القنوات الشرعية والمسؤولة عن الأخبار والمعلومات.
وأبرزت الدراسة العواقب الوخيمة الناتجة عن انتشار تقنيات تزييف الحقائق بالنسبة للأشخاص الذين يعيشون في الدول النامية، إذ تُسهم المعلومات المضللة في زيادة مستويات العنف العرقي؛ كما يبرز ضد مسلمي “ميانمار” و”الهند”، “إثيوبيا”.
ومع ضعف الإمكانات المخصصة لمواجهة مثل هذه الظواهر في تلك الدول، فثمة احتمالية لعدم اكتشاف التضليل الممنهج في مثل هذه المناطق، وأشارت الدراسة إلى أن تطبيق (فيس بوك) نفسه يُخصص فقط: 13% من ميزانيته للإشراف على المحتوى المقدم للمستخدمين خارج “الولايات المتحدة الأميركية”، كما تُعاني التطبيقات الأخرى والمستخدمة بشكلٍ شائع في تلك المناطق مثل تطبيق (واتس آب) المعلومات الخاطئة.
مع ذلك؛ تؤكد الدراسة أنه لاتزال هناك فرصة لتجنب العواقب الوخيمة لاستخدام التقنيات في التضليل لعدة أسباب، منها سطحية المقاطع المنشورة على المواقع الإلكترونية، حيث يتم تغييرها يدويًا أو تحريرها بشكلٍ انتقائي لتضليل الجمهور، وارتفاع تكلفة إنشاء محتوى فيديو واقعي لحاجته لمعدات عالية التكلفة، وعدم توفر المحتوى المعلوماتي اللازم لإنشاء الصور والفيديوهات المركبة والتدريب على إنشائها، بالإضافة لغياب المهارة التقنية والمتخصصة.
أيضًا تفتقر مقاطع الفيديو المزيفة الحالية للجودة العالية، على الأقل في الوقت الحالي، حيث لازالت بعيدة عن متناول الهواة، كما تفتقد لعنصري الوقت والجهد اللازمين للخصوم الأجانب لإنشاء مقاطع الفيديو المزيفة، خاصة أن إنشائها يستغرق شهورًا، مما يُتيح لـ”الولايات المتحدة” والمجتمع الاستخباراتي من دول الحلفاء؛ الفرصة للتعرف على الجناة والوصول لمخططاتهم قبل نشر تلك المقاطع، ناهيك عن اقتصار نشر مقاطع الفيديو المزيفة حاليًا على فئة المشاهير والسياسيين لعدم توافر بيانات وصور الأشخاص العاديين مما يحد من قدرة الخصوم على إنشاء مقاطع مزيفة وعالية الجودة لأفراد أقل شهرة، وفي ظل هذه العوامل من المحتمل أن يتم القبض على الجاني وأن يدفع تكلفة كبيرة سواء من خلال ضغط دولي أو عقوبات اقتصادية نتيجة أفعاله، بالتالي سيحتاج الخصوم لموازنة التكاليف السياسية والاقتصادية والأمنية في قراراتهم قبل نشر المعلومات المضللة.
منهجيات المواجهة..
شددت الدراسة على أهمية الأخذ في الاعتبار عامل الوقت في مواجهة تقنيات التزييف، لأنه ليس في صالح المجتمع الدولي، مشيرة إلى أنه مع مرور الوقت، سيُصبح إنشاء مقاطع الفيديو المزيفة أسهل وأسرع، وستعتمد على بيانات وصور أقل بكثير من الوقت الحالي، كما سيأتي اليوم الذي يمكن فيه للأفراد إنشاء صور مزيفة وتبدو واقعية باستخدام تطبيقات الهواتف الذكية فقط، وسيكون من الصعب اكتشافها، ومثل هذه العوامل ستؤدي حتمًا لزيادة عدد الجهات المشاركة في ابتكار ونشر المحتوى المزيف، وهو ما سيُقلل بدوره من إمكانية القبض على الجناة أو دفع الثمن الجيوسياسي الناتج عنه، لذلك، طرحت الدراسة بعض المبادرات والمنهجيات المتبعة حاليًا التي قد تحد من تهديد سلامة المعلومات وصحتها، ومنها:
- منهجية الكشف عن المقاطع المزيفة “Detection”..
وهي عبارة عن تكنولوجيات وبرامج معينة تُسّهم في الكشف على مقاطع الفيديو المزيفة؛ مثل استخدام العلامات المائية أو وضع التحذيرات المضمنة في البيانات الوصفية للصور أو المقطع، وبالتالي يمكن لها أن تُحدد ما إذا كانت الصور التي تم إنشاؤها أصلية أم مزيفة.
- منهجية المصدر الأصلي للصور أو مقاطع الفيديو “Provenance”..
وهي تقنية الاعتماد على المصدر الموثق من خلال الكشف عن مصدر الصور الرقمية، كما يمكن تحميل المعلومات المهمة في البيانات الوصفية للصورة الرقمية؛ بحيث عند النقر عليها سيكشف الرمز عن الصورة الأصلية ويُحدد أي تعديلات تم إجراؤها عليها، وأكدت الدراسة أن تلك المنهجية ستُساهم في بناء الثقة في المؤسسات الإخبارية الشرعية.
- منهجية تفعيل المبادرات والقوانين المنظمة “Regulatory Initiatives”..
أي إنشاء قوانين جنائية واللجوء لاعتماد مشاريع قوانين تنظيمية لمواجهة التزييف للحقائق، مثلما قامت ولاية “تكساس” عام 2019، حيث أصدرت قانونًا من شأنه أن يجعل من غير القانوني توزيع مقاطع فيديو مزيفة تهدف إلى إيذاء مرشح أو التأثير على نتيجة الانتخابات في غضون: 30 يومًا من الانتخابات، وذلك على مستوى الولايات الأميركية كافة.
- منهجية استخدام التقنيات الذكية والصحافية مفتوحة المصدر “Open-Source Intelligence Techniques and Journalistic Approaches”..
أي الاعتماد على تطوير ومشاركة أدوات مفتوحة المصدر لاستخدامها في تحديد المحتويات المزيفة والمعلومات المضللة، وتُعد هذه الأدوات مهمة بشكلٍ خاص للصحافيين الذين يُمثلون المنظمات الإخبارية الصغيرة والمتوسطة الحجم، نظرًا لاعتمادهم عليها للتحقق من صحة المحتوى المُبّلغ عنه، وأشارت الدراسة إلى واحدة من أكثر الأدوات التي يتم الاستشهاد بها بشكلٍ متكرر وهي البحث العكسي عن الصور، حيث يتم التقاط شاشة الصورة أو الفيديو بجهاز آخر وتشغيلها من خلال منصة البحث العكسي عن الصور من (Google) والذي يقوم بدوره بالبحث عن جوانب المحتوى المشبوه وإذا تم تزويره.
- منهجية برامج محو الأمية الإعلامية “Media Literacy”..
وهي تُسهم في مساعدة الجماهير على أن تكون فضولية بشأن مصادر المعلومات المقدمة، وتقييم مصداقيتها، والتفكير بشكل منطقي في المعروض.
واختتمت الدراسة بتوصيات يمكن أن تُساهم في الحد من استخدام تقنيات “الذكاء الاصطناعي” في نشر المعلومات المضللة، منها:
- يجب على الحكومات ومنصات التواصل الاجتماعي وأصحاب المصلحة من القطاع الخاص مواصلة الاستثمار في تكنولوجيا الكشف عن استخدامات تقنيات “الذكاء الاصطناعي” لتزييف الحقائق واتخاذ خطوات أخرى لتعزيزها.
- تقويض فرص الجناة من الوصول لأجهزة الكشف عن التزييف العميق عالية الجودة التي تمولها الحكومة والاحتفاظ بها بعيدًا للحفاظ على الأمن القومي.
- أهمية استمرار جهود محو الأمية الإعلامية على مسارين؛ الأول، تعزيز تلك الجهود بتوفير التدريب القائم على الأدلة والترويج له على المستويات كافة مع توعية الجماهير للتمييز بين الحقيقي والمزيف، أما المسار الثاني، فهو تحذير الجماهير من استخدامات التكنولوجيا المتقدمة وآفاق استخدامها لنشر المعلومات المضللة، وزرع عدم الثقة في أي محتوى غير معلوم المصدر.
- يجب على “وزارة الخارجية” الأميركية دعم مبادرات محو الأمية الإعلامية في الخارج بصورة أكبر، خاصة في مناطق، مثل “أوروبا الشرقية”، التي تستهدفها الدعاية الروسية بشكلٍ كبير؛ بحسب ما يختتم الكاتب دراسته الموجهة والمضللة بالأساس لصالح الدعائيات الأميركية الاستخباراتية والسياسية.