22 ديسمبر، 2024 7:21 م

الذكاء الاصطناعي والديمقراطية

الذكاء الاصطناعي والديمقراطية

Thorsten Thiel()
6-1-2022
ترجمة د.باسم علي خريسان
الذكاء الاصطناعي والديمقراطية: فهم الخلفية الاجتماعية والتقنية.
كمجال بحثي ، تم إنشاء الذكاء الاصطناعي قبل فترة طويلة من انطلاق مناقشاتنا الحالية. يمكن إرجاع أصولها إلى منتصف الخمسينيات على الأقل. في ذلك الوقت ، كانت التوقعات عالية بأن الآلات ستتمكن قريباً من التفكير والتصرف مثل البشر ، لكن التقدم المتوقع لم يتحقق أبداً ، وتبع ذلك شتاء طويل يسمى الذكاء الاصطناعي. خلال تلك الفترة ، اختفى الذكاء الاصطناعي في الغالب من الخطاب العام. ولكن على الرغم من أنه لم يكن مرئياً ، فقد تم إحراز تقدم وتم تطوير أو ضبط العديد من الأدوات المفاهيمية والتقنيات الخوارزمية التي تستند إليها توقعاتنا الحالية. في الوقت نفسه ، حققت الرقمنة اختراقات هائلة في المجتمع ، مما مهد الطريق لارتفاع الذكاء الاصطناعي. كان هناك عاملان حاسمان: توافر قوة حاسوبية هائلة والتوسع المستمر في جمع البيانات. تطلبت الأساليب الجديدة للاتصالات ، والتقنيات الجديدة لاستشعار البيانات وجمعها وتخزينها ، والحوافز الاقتصادية القوية لجمع البيانات تطوير طرق جديدة لتحليل البيانات. منذ العام 2010 فصاعداً ، انطلق الذكاء الاصطناعي حيث أثبتت أساليب التعلم الآلي السائدة الآن قيمتها في سلسلة من النجاحات المذهلة في مجالات مثل التعرف على الكلام والصورة ، وتفوقت الآلة على البشر في لعب لعبة اللوح Go ، وهو إنجاز كان يعتقد منذ فترة طويلة أن يكون مستحيلاً.
تتميز تقنيات التعلم العميق اليوم بالنهج الاستقرائي. في حين أن تطوير الذكاء الاصطناعي في الأيام الأولى غالباً ما يستلزم تصنيفاً واستنتاجاً معقداً ، فإن الأساليب الحالية تعمل من خلال تحليل مجموعات البيانات الكبيرة ، وبالتالي إنشاء أو تكييف قواعد القرار من أجل السماح بتحسين المعايير المحددة مسبقاً. أصبحت أنظمة الذكاء الاصطناعي في العديد من المجالات فعال للغاية في اكتشاف انماط وتصنيفها وتم تطويرها للسماح بالتكيف مع التطورات أو الأنماط الجديدة أثناء التشغيل. من الأفضل فهم هذه القدرات على أنها عمليات تعلم ؛ نطاقها وتعقيدها الهائل يجعلها متفوقة على التحليل البشري في بعض الحالات (تحسين سلاسل التوريد المعقدة مثال جيد). ومع ذلك ، من المهم فهم الأساليب الحالية للذكاء الاصطناعي على أنها ذكاء اصطناعي ضيق أو ضعيف. يكمن ضيقها في عدم قابليتها للانتقال ، أي يجب تدريب الذكاء الاصطناعي لأداء نوع معين من المهام ولا يمكن تطبيقه نفسه أو تطبيقه على مشاكل أخرى دون خطوات تكيفية. فيما يلي ، يقصر هذا النص المناقشة على التطورات المجتمعية التي يمكن توقعها من تطبيقات الذكاء الاصطناعي الضيقة وسيركز بشكل أساس على السنوات الخمس إلى العشر القادمة. الافتراض الأساسي هو أنه خلال تلك الفترة. سيكون استخدام تقنيات الذكاء الاصطناعي أكثر شيوعاً وأكثر تعقيداً وأكثر سلاسة مما هو عليه اليوم – لكنه لن يكون مختلفاً بشكل كبير. ومن ثم ، يمكننا بالفعل استقراء الاتجاه الذي نتجه إليه ، على الرغم من أن لدينا العديد من الاحتمالات لتوجيه وتشكيل التنمية ، لأنها تعتمد إلى حد كبير على الأطر السياسية والمجتمعية والاقتصادية كما تعتمد على التطورات التكنولوجية.
الذكاء الاصطناعي والديمقراطية: تقييم أهم التطورات
سيركز هذا النص على الديمقراطية كترتيب مؤسسي يهدف إلى تحقيق الحكم الذاتي الجماعي. التمثيل هو مفتاح الديمقراطية ، وإذا أردنا أن يكون لدينا تمثيل ديمقراطي ، فنحن بحاجة إلى ترتيبات إجرائية تدعم النقل الحر والانعكاسي لأصوات المواطنين وتفضيلاتهم إلى المؤسسات السياسية (“تكوين الإرادة العامة”) ، مع استمرار خضوع المؤسسات للمساءلة حتى في حالة عدم إجراء انتخابات فعلية. لا تتعلق الديمقراطية بشكل أساس بالمخرجات أو الفعالية ، وبالتالي لا ينبغي مساواتها بمجتمع عادل أو مقاوم للفشل (هذا التكافؤ الخاطئ هو أحياناً المنطلق في نقاشات الذكاء الاصطناعي ، عندما توصف النتائج بأنها جيدة أو عادلة ، وبالتالي ديمقراطية). من ناحية أخرى ، لا ينبغي تعريف الديمقراطية بشكل ضيق من خلال الإجراءات الانتخابية فقط ، لأن تكوين الإرادة العامة وطريقة ممارسة السلطة مهمان أيضاً للتقييم المعقد للديمقراطية. بناءً على هذا الفهم للديمقراطية ، يمكن للمرء أن يميز تقريباً ثلاثة بؤر رئيسة في النقاش الناشئ حول كيفية قيام الذكاء الاصطناعي بتحويل الممارسات المجتمعية أو السياسية بطريقة تؤثر بشكل مباشر على سير الديمقراطية في المجال العام ، فيما يتعلق بالانتخابات ، وفي إدارة الخدمات العامة.

الذكاء الاصطناعي والمجال العام الديمقراطي
النقاش حول تأثير الذكاء الاصطناعي في المجال العام هو حالياً الأكثر بروزاً ومألوفاً للجمهور العام. كما أنه مرتبط بشكل مباشر بالمناقشات الطويلة الأمد حول التحول البنيوي للمجال العام الرقمي. لقد مهد التحول الرقمي الطريق بالفعل لظهور الشبكات الاجتماعية التي كثفت ، من بين أمور أخرى ، إضفاء الطابع الشخصي على استهلاك الأخبار وكسرت الحواجز بين المحادثات الخاصة والعامة. غالباً ما يُعتقد أن مثل هذه التطورات مسؤولة عن تأثيرات غرفة الصدى أو فقاعات التصفية ، والتي يتم تصويرها بدورها كأسباب جذرية للاستقطاب السياسي المكثف في الديمقراطيات في جميع أنحاء العالم. على الرغم من أن الأبحاث التجريبية حول فقاعات المرشح ، وغرف الصدى ، والاستقطاب المجتمعي قد أظهرت بشكل مقنع أن الآثار مبالغ فيها بشكل كبير وأن العديد من الأسباب غير المتعلقة بالتكنولوجيا تفسر بشكل أفضل التراجع الديمقراطي ، فمن المتوقع غالباً أن يؤدي انتشار تطبيقات الذكاء الاصطناعي إلى إحياء الرابط المباشر بين التطورات التكنولوجية والتفكك المجتمعي الذي يهدد الديمقراطية والمجال العام الديمقراطي
الافتراض هنا هو أن الذكاء الاصطناعي سيعزز بشكل كبير إمكانيات تحليل وتوجيه الخطابات العامة و / أو تكثيف التجزئة الآلية لتشكيل الإرادة. تذهب الحجة إلى أن نقاط القوة في تطبيقات الذكاء الاصطناعي اليوم تكمن في القدرة على مراقبة وتحليل كميات هائلة من الاتصالات والمعلومات في الوقت الفعلي ، لاكتشاف الأنماط والسماح بردود فعل فورية وغير مرئية في كثير من الأحيان. في عالم الوفرة الاتصالية ، يعد الاعتدال الآلي للمحتوى أمراً ضرورياً ، كما أن الضغوط التجارية والسياسية تزيد من تأثير إنشاء الأدوات الرقمية للإشراف على تدفقات الاتصال والتدخل فيها. يتم توزيع إمكانيات التحكم بين المستخدمين والمشرفين والمنصات والجهات الفاعلة التجارية والدول ، ولكن كل هذه التطورات تدفع نحو الأتمتة (على الرغم من أنها موزعة بشكل غير متماثل إلى حد كبير). لذلك ، يتم دمج الذكاء الاصطناعي في الواجهة الخلفية لجميع الاتصالات ويصبح قوة بنيوية خفية لكنها قوية للغاية.
الخطر الناشئ عن هذا التطور ذو شقين. من ناحية أخرى ، يمكن أن يكون هنالك جهات فاعلة خبيثة تستخدم هذه الاحتمالات الجديدة للتلاعب بالمواطنين على نطاق واسع. تتبادر إلى الذهن فضيحة (Cambridge Analytica) كمحاولة لقراءة وتوجيه الخطابات السياسية. يكمن الخطر الآخر في العلاقة المتغيرة بين الشركات العامة والخاصة. أصبحت القوى الخاصة منخرطة بشكل متزايد في المسائل السياسية وقدرتها على ممارسة تأثيرات مبهمة على العمليات السياسية تتزايد لأسباب بنيوية وتكنولوجية. علاوة على ذلك ، فإن إعادة تشكيل المجال العام عبر نماذج الأعمال التجارية الخاصة قد تم دفعها للأمام من خلال العقلانية الاقتصادية المتغيرة للمجتمعات الرقمية مثل تطوير اقتصاد الاهتمام( جذب الاهتمام). تزداد الكيانات الخاصة قوة وتصبح أقل عرضة للمساءلة أمام السلطات العامة ؛ تطور يتم تسريعه من خلال اعتماد تطبيقات الذكاء الاصطناعي التي تنشئ تبعيات وتسمح بالتعتيم في نفس الوقت. يكمن “تسييس” رأسمالية المراقبة في ميلها ، كما جادلت شوشانا زوبوف ، ليس فقط لأن تكون أكثر توغلاً وشمولية ، ولكن أيضاص لاستخدام البيانات التي تم جمعها للتنبؤ بسلوك الأفراد وتعديله والتحكم فيه. تعد تقنيات الذكاء الاصطناعي جزءاً لا يتجزأ من “تسييس” رأسمالية المراقبة ، لأنها تسمح بتحقيق هذه التطلعات. ومع ذلك ، في الوقت نفسه ، يعمل الذكاء الاصطناعي أيضاً على عزل الشركات التي تقوم بتطويره ونشره من التدقيق العام من خلال تأثيرات الشبكة من جهة والتعتيم من جهة أخرى. يعتمد الذكاء الاصطناعي على كميات هائلة من البيانات وله تكاليف أولية عالية (على سبيل المثال ، الموهبة المطلوبة لتطويرها ، والطاقة التي تستهلكها المنصات العملاقة التي تعمل عليها) ، ولكن بمجرد إنشائها ، من الصعب جداً ترويضها من خلال الأسواق التنافسية . على الرغم من إمكانية تطوير التطبيقات من قبل العديد من الجهات ولأغراض عديدة ، فإن البنية التحتية للذكاء الاصطناعي الأساسية مركزية إلى حد ما ويصعب إعادة إنتاجها. كما هو الحال في أسواق المنصات الأخرى ، اللاعبون المهيمنون هم أولئك القادرين على الحفاظ على إحكام قبضتهم على أهم الموارد (النماذج والبيانات) والاستفادة من كل مستخدم فردي أو شركة. لذلك ، يمكننا أن نرى بالفعل أن تطوير الذكاء الاصطناعي يزيد من إحكام قبضتك على عمالقة الإنترنت اليوم. من المتوقع أن تستفيد القوى العامة بشكل متزايد من تطبيقات الذكاء الاصطناعي ، وبالتالي تصبح أكثر اعتماداً على الجهات الفاعلة القادرة على توفير أفضل بنية تحتية ، على الرغم من أن هذه البنية التحتية ، لأسباب تجارية وتقنية ، غير شفافة إلى حد كبير.
التطورات الموضحة أعلاه – القدرة المتزايدة على التلاعب بالخطاب العام وتقوية السلطات الخاصة – تغذي بعضها البعض ، والنتيجة المحتملة هي أن العديد من أوجه القصور المرئية بالفعل في المجالات العامة الرقمية اليوم سوف تنمو فقط. من الصعب للغاية تقدير ما إذا كان يمكن مواجهة هذه التطورات من خلال إجراءات الدولة ، على الرغم من بدء الخطاب التنظيمي ، وغالباً ما ثبت خطأ الافتراض القائل بأن الأمور الرقمية تستعصي على تنظيم الدولة في تاريخ الاتصالات الشبكية. الاحتمال الآخر هو التخصيص الخلاق لتطبيقات الذكاء الاصطناعي من خلال المستخدمين الذين تفوق إمكاناتهم الديمقراطية مخاطرها الديمقراطية ، وبالتالي تمكين ظهور مساحات عامة مختلفة التنظيم وأكثر تمكينا وشمولية. هذا هو أمل العديد من المتغيرات الأكثر مثالية للذكاء الاصطناعي وأدبيات المجال العام ، والتي بموجبها تحمل التقنيات القائمة على الذكاء الاصطناعي إمكانية منح الأفراد القدرة على التنقل في البيئات المعقدة والغنية بالمعلومات والسماح بالعمل المنسق والفعال.
الذكاء الاصطناعي والانتخابات (القائمة على البيانات)
بينما يركز الخطاب حول الذكاء الاصطناعي والمجال العام الديمقراطي في الغالب على المتطلبات المجتمعية لديمقراطية صحية ، ينظر خطاب إضافي في كيفية “ممارسة” الديمقراطية ، وتحديداً في الانتخابات وكيفية إجرائها. بينما ، في خطاب المجال العام ، تنبع المخاطر المفترضة في الغالب من جهات فاعلة خاصة ، فإن العلاقة التي تطرح إشكالية في الخطاب حول الذكاء الاصطناعي والانتخابات تحدث بشكل أكثر مباشرة بين من يحكمون والمحكومون.
تتصور معظم نظريات الديمقراطية التمثيلية الانتخابات على أنها العنصر الوحيد الأكثر أهمية في الديمقراطية. يجب أن تضمن الانتخابات بقاء النخب خاضعة للمساءلة وتوجيه أعمالها نحو الناخبين. الانتخابات هي نقاط محورية للخطابات العامة وتسمح للجمهور بالتعبير عن تفضيلاتهم السياسية بطريقة حرة ومتساوية. من أجل القيام بذلك ، يجب أن تفي الانتخابات نفسها بمتطلبات معينة: يجب إجراؤها بطرق محددة ، وبينما كانت المخاطر في الماضي مرتبطة في الغالب بعملية التصويت نفسها ، فإن اهتمامنا اليوم موجه أيضاً إلى الحملات الانتخابية ، أي الطريقة التي يتم بها مخاطبة المواطنين وإبلاغهم في الفترة التي تسبق الانتخابات. في هذا المجال الأخير ، قد يقوض الذكاء الاصطناعي الخطاب السياسي من خلال إنشاء وسائل فعالة للجهات الفاعلة السياسية (مثل الأحزاب أو السياسيين ولكن في بعض الأحيان أيضاً القوى الأجنبية) للتعامل مع المواطنين بشكل مخادع ومنع الانتقال الديمقراطي لمصالح المواطنين وتفضيلاتهم إلى النظام السياسي.
غالباً ما يُشار إلى تطورين مرتبطين بالذكاء الاصطناعي على أنهما يشكلان تهديداً لنزاهة الانتخابات الديمقراطية:
الاتجاه الأول يتعلق بالإمكانيات الجديدة للتلاعب المباشر بالخلافات السياسية باستخدام أدوات مدعومة بالذكاء الاصطناعي. وهنا يكمن الخطر في أن يؤدي التصعيد في الأساليب العدائية إلى التأثير على الرأي العام وتشويه سمعة المعارضين السياسيين ، مما يشوه شرعية الديمقراطية ويقوض الإيمان العام بالإجراءات الديمقراطية. غالباً ما يُنظر إلى الروبوتات الاجتماعية والتزييف العميق على أنها أهم الأمثلة على هذا التطور.
تعد الروبوتات الاجتماعية هي وكلاء وسائط اجتماعية يمكن استخدامها لتضخيم الآراء من خلال أتمتة اتصالات معينة. في أعقاب انتخابات عام 2016 في الولايات المتحدة الامريكية (ترامب) والمملكة المتحدة البريطانيه (خروج بريطانيا من الاتحاد الأوروبي) ، كان دور الروبوتات عنصراً إخبارياً مهماً. تم تصوير الروبوتات على أنها السلاح المفضل للأجانب الذين يحاولون التأثير على الانتخابات أو خلق الانقسامات داخل المواطنين. يُعتقد أن أتمتة الاتصال عبر الروبوتات تتلاعب بالمنطق الحسابي لاتصالات وسائل التواصل الاجتماعي وبالتالي تصبح وسيلة فعالة للترويج للمعلومات المضللة.
من ناحية أخرى ، فإن التزييف العميق عبارة عن عمليات تزوير تستفيد بشكل مباشر من تقنيات الذكاء الاصطناعي في مجال معالجة الصور والصوت. لقد أصبح من الأسهل والأرخص بشكل كبير تغيير المواد السمعية والبصرية بشكل مقنع وسريع. يمكن أن يصبح هذا سلاحاً في أيدي الفاعلين السياسيين الذين يحاولون تشويه سمعة خصومهم. في حين أن التزوير والدعاية كان لها دائماً مكان في تاريخ السياسة ، فإن تقنيات التزييف العميق تعيد توزيع القدرة على التلاعب بالعديد من الجهات الفاعلة ، وتجعل من الصعب إثبات التعديلات الصغيرة ، ويمكن أن تزيد من تآكل الثقة في جميع أنواع الاتصالات الوسيطة.
بينما غالباً ما يتم تحديد الروبوتات الاجتماعية والتزييف العميق كمجالات مثيرة للقلق ستصبح أكثر أهمية مع التطوير الإضافي لتقنيات الذكاء الاصطناعي ، فقد أظهرت الأبحاث الحالية في الغالب أن المشكلة مبالغ فيها. عادة ما يستخدم مؤيدو الموقف الذين يسلطون الضوء على المخاطر الوسائل التقنية كنقطة انطلاق لحجتهم ، ويميلون إلى الغفلة أو التقليل من العوامل المجتمعية التي تساعد في تحقيق التوازن ومواجهة نشر هذه التقنيات (من الصحافة الاستقصائية إلى احتمالات المعاقبة( الفاعلين يسيئون معاملتهم). في حين أن بعض التقنيات لديها بالتأكيد القدرة على تفاقم استقطاب الخطاب السياسي ، إلا أن تأثيرها العام على الإجراءات الديمقراطية في المستقبل القريب ربما يكون أضعف من السيناريو الذي رسمه مثيرو القلق ، لا سيما في الديمقراطيات الراسخة ذات البيئة الإعلامية الفعالة والتعددية.
الاتجاه الثاني هو التوسع في الاستهداف السياسي الدقيق عبر الإنترنت. هذه الإستراتيجية أقل عدوانية من الروبوتات الاجتماعية والتزييف العميق وأكثر تماشياً مع التطورات الأوسع في التواصل السياسي والتجاري. يعتمد الاستهداف الدقيق على كميات هائلة من البيانات والتقنيات المعقدة للتعرف على الأنماط ، وبالتالي يمكن توقع أن يصبح أكثر تعقيداً في العقد القادم. لسنوات ، غيّر الاستهداف الدقيق طبيعة الإعلان في العلاقات التجارية والمستهلكين ودافعاص في تطوير اقتصاد الاهتمام التجاري. في السياق السياسي ، يُنظر إلى الاستهداف الدقيق بقدر كبير من الشك ، لأن الانتقائية التي يمنحها تجعلها شديدة التلاعب. تذهب الحجة إلى أنه إذا كان الفاعلون السياسيون قادرين على إخبار الناخبين بما يريدون سماعه أو حث مؤيدي مرشح معين على الامتناع عن التصويت في انتخابات معينة ، فإن الاستهداف الدقيق سيصبح يداً غير مرئية سيكون من الصعب إثبات تأثيرها على الانتخابات. . كما هو الحال مع الروبوتات الاجتماعية ، يجب تقييم فعالية الاستهداف الدقيق بعناية: فمن ناحية ، قد يكون حشد الناخبين وفهم تفضيلاتهم مفيداً للديمقراطية ؛ من ناحية أخرى ، فإن التلاعب بالناخبين ببضع رسائل مخصصة ليس بالأمر الواضح كما هو مقترح لأن القرارات السياسية ليست قرارات لمرة واحدة ، ولكنها غالباً ما تتشابك كثيراً مع الهويات الشخصية التي يصعب تغييرها لإجراء مناقشات أكثر شمولاً حول وعود وتهديدات الاستهداف الدقيق.
في العامين المقبلين ، يمكننا أن نتوقع أن يتجاوز الخطاب السياق الانتخابي والتركيز على التلاعب ليشمل انعكاسات أوسع حول الديمقراطية وتحويل البيانات إلى العروض التوضيحية. ستجلب تطبيقات الذكاء الاصطناعي الأكثر تطوراً وانتشاراً معرفة مختلفة عن المواطنين وسلوكهم وسيكون من المهم معرفة ما إذا كانت الديمقراطيات تقرر الاستجابة بشكل أكثر فاعلية للكشف الآلي عن التفضيلات والشكاوى. قد تتراجع أهمية الانتخابات بالنسبة إلى هذه المراقبة المستمرة للعروض التوضيحية. بينما ، للوهلة الأولى ، قد يؤدي هذا التحول إلى مزيد من الاستجابة ويبدو أنه يتماشى مع القيم الديمقراطية ، إلا أنه قد يؤدي أيضًا إلى نسخة أكثر تكنوقراطية من المجتمع ، حيث يحل الاعتماد على مراقبة المواطنين وتصنيفهم محل المشاركة النشطة (والقيمة الضمنية) من مناقشة عامة انعكاسية).
الذكاء الاصطناعي والخدمات العامة
تأخذ الزاوية الثالثة التي تتناول تأثير الذكاء الاصطناعي على الديمقراطية نقطة انطلاقها من طريقة تصور الخدمات العامة وتشغيلها. غالباً ما تنطوي الدعوة إلى رقمنة السياسة على زيادة في أتمتة إجراءات صنع القرار في الإدارة العامة. تصل الأمثلة من إدارة الرفاه إلى أنظمة الضرائب ومراقبة الحدود. الأمل أنه في عالم أكثر تعقيداً من أي وقت مضى ، سيؤدي التحول نحو أنظمة مؤتمتة للغاية إلى نظام سياسي أكثر كفاءة. يجب أن تقضي الأتمتة على الإخفاقات والإحباط ، وتسمح بإصدار أحكام أكثر دقة وأسرع ، وتحرير الموارد للمشكلات الأخرى. ولكن لماذا يُعتبر التغيير في الطريقة التي تُدار بها الخدمات بمثابة تحدٍ للديمقراطية؟ غالباً ما تكون فرضية الديمقراطية غير المعترف بها هي اعتمادها على القانون والقواعد القانونية كآليات توجيه أساسية للمجتمع. يُنظر إلى القوانين المكتوبة وتطبيقها من قبل سلطة تنفيذية خاضعة للرقابة القضائية على أنها مناسبة طبيعية للأنظمة الديمقراطية. إضفاء الطابع المؤسسي على أساس العملية عنصر أساس في فكرة أن يحكم الناس أنفسهم. تضمن القوانين والهياكل القانونية أن الأنظمة الديمقراطية مفهومة لمواطنيها وتخلق أساساً للطعون. لذلك ، إذا استبدلت الدول أو أستكملت العمليات القانونية تدريجياً بعمليات آلية وقابلة للتكيف ، فإن هذا يؤثر في عمل وشرعية الأنظمة الديمقراطية بطرق يجب فحصها بشكل نقدي.
ينظر أنصار أتمتة المجتمع بشكل أساس إلى نتائج الأنظمة السياسية. إنهم يتوقعون أن يتم تعزيز الشرعية عن طريق الأتمتة بسبب الموضوعية المفترضة للعمليات وتحسين مخرجات النظام. هذه طريقة واحدة فقط للنظر في التغييرات. سلطت المؤلفات البحثية الأخرى الضوء على مجالين على الأقل من مجالات الاهتمام:
1- من ناحية أخرى ، تنشأ المشاكل من منطق تطبيقات التعلم الآلي على هذا النحو. كما تمت الإشارة إليه أعلاه وتمت مناقشته على نطاق واسع في النقاش الأوسع حول التأثير المجتمعي للذكاء الاصطناعي ، تعتمد تطبيقات التعلم العميق بشكل كبير على جودة وكمية البيانات التي يتم إدخالها في النظام. لذلك غالباً ما يُنظر إلى التحيز والتعتيم على أنهما آثار جانبية يصعب منعها (أو حتى اكتشافها) نظراً لأنها تنشأ من أسس التفكير الاستقرائي. تعود جذور التحيز إلى المنطق الذي يستخدمه النمط في نقاط البيانات السابقة لاستقراء التطورات في المستقبل. والتعتيم ، من بين أمور أخرى ، هو نتيجة التعقيد الديناميكي وثيق الصلة بنماذج الذكاء الاصطناعي. غالباً ما يتم تصور تطبيقات الذكاء الاصطناعي على أنها محايدة نظراً لأن التدخل البشري يمكن أن يصبح عتيقاً في تشغيلها ، لكن التحيز والتعتيم هما سببان رئيسيان لعدم تحقيق الحياد. لا يُفهم الحياد بشكل كافٍ إذا تم النظر فقط في التحديد الفني للعملية. يمكن أن ينشأ الظلم من جانب واحد من العديد من الظروف أكثر من مجرد تطبيق غير متماسك أو بطيء. تعمل الأنظمة الآلية على تحسين السرعة والتماسك ولكنها ستكون دائماً عرضة للحفاظ على الوضع الراهن ويصعب التشكيك فيها بسبب طبيعتها الفنية وتعقيدها.
2- المسألة الثانية متصلة ، لكنها أكثر تجريدية. يتعلق الأمر بالاختلاف بين القوانين التي يجب أن تكون صريحة إلى حد ما ، وبالتالي ، يمكن الطعن فيها وشرحها من خلال التفكير التفسيري وأنظمة اتخاذ القرار المؤتمتة التي تخلق المزيد من العمليات غير الاحتكاكية من خلال تبسيط أو تخصيص بنيات الاختيار. إذا افترضنا أن المواطنين سيتفاعلون بشكل متزايد مع الإدارات العامة من خلال التطبيقات القائمة على الذكاء الاصطناعي – كما في حالة المدن الذكية حيث تتم إدارة العديد من الإجراءات اليومية بنشاط من خلال التدخلات الحسابية – فإن العلاقة بين الدولة ومواطنيها تتغير. بدلاً من ذلك ، يصبح تفاعلنا مع السلطات العامة أكثر تخصيصاً. يشكل استخدام أنظمة الذكاء الاصطناعي لتكييف تجربتنا الفردية في المجال العام طريقة جديدة وربما تدخلية للحكم ويغير طبيعة السلطة في أنظمتنا (من شيء قررنا بشكل جماعي أن نثق به ونتحكم فيه إلى شيء نعتمد عليه بشكل فردي) .
باختصار ، يسلط الخطاب حول أتمتة الخدمات العامة الضوء على المخاطر المتزايدة للهيمنة البنيوية في البيئات المؤتمتة للغاية. يسمح الذكاء الاصطناعي بالتدخلات المستهدفة في الحياة اليومية ، ومن المرجح أن يتكثف هذا النوع من الإدارة التفصيلية إذا توفرت أدوات توجيه أكثر تعقيداً. في حين أن هذا قد يكون مرغوباً في بعض النواحي – فكر في مكافحة أزمة المناخ وكيف تتطلب ، من بين أمور أخرى ، تنسيقاً للسلوك على مستوى المجتمع – من منظور ديمقراطي ، فإن السؤال ما إذا كان يمكن مساءلة إدارة عامة مدعومة بالذكاء الاصطناعي في بنفس الطريقة التي يمكن أن تكون بها الإدارة القائمة على القانون. علاوة على ذلك ، فإن السؤال هو ما إذا كان التركيز على التنبؤ لا – للمفارقة – يربط سياساتنا كثيراً بالماضي. يختلف الذكاء الاصطناعي إلى حدٍ ما عن الأنماط التقليدية للحكم نظراً لصعوبة إدراك إعطاء العقل ضمنه ، ويشكل مزيج القوى الخاصة والعامة التي تقود التطور الحالي مشكلة خطيرة فيما يتعلق بإرساء الديمقراطية .( معالجة هذه المشاكل).
الذكاء الاصطناعي والديمقراطية: محاولات تنظيمية
كما أوضح الفصل أعلاه ، هناك مجموعة من التحديات التي قد يخلقها التكيف الواسع النطاق لتطبيقات الذكاء الاصطناعي في المجال العام والسياسات الديمقراطية والخدمات العامة للديمقراطية. على الرغم من أن العديد من المخاطر التي تم تسليط الضوء عليها حتى الآن هي تخمينية إلى حد ما ولا تأخذ في الاعتبار بشكل كاف القوى التعويضية وعوامل التوازن الأخرى ، يجب علينا بالتأكيد أن ندرك المخاطر التي يشكلها الذكاء الاصطناعي حتى فيما يتعلق بالسياسات الديمقراطية. لذلك ، سوف يلقي هذا الجزء الأخير من المعلومات الأساسية نظرة سريعة على المبادرات الحالية لتنظيم الذكاء الاصطناعي ومعرفة إلى أي مدى تتصدى لتحديات الديمقراطية.
يحتاج الذكاء الاصطناعي إلى التنظيم وهو مطلباً رئيساً في السياسة العالمية لنحو خمس سنوات. حيث كان هنالك انتشار قوي للمقترحات التنظيمية في أنظمة سياسية متنوعة مثل الصين والولايات المتحدة الامريكية والاتحاد الأوروبي ، وقد عمل كل منها على نهج شامل لتنظيم الذكاء الاصطناعي وتطبيقاته. تشترك هذه المقترحات في بعض أوجه التشابه من حيث أنها تخلق سرداً رئيسياً للذكاء الاصطناعي باعتباره تطوراً حتمياً ومضطرباً. تشير جميع المقترحات إلى الدرجة العالية من عدم اليقين فيما يتعلق باستخدامات وتأثيرات الذكاء الاصطناعي ، ثم ارتفاع الطلب على القيادة التنظيمية. على الرغم من التشابه في السرد العام ، فإن التركيز الوطني على ما يجب تنظيمه وفي أي اتجاه للتوجيه يختلف بشدة: في حين أن النهج الأمريكي – الذي تم تطويره في الغالب خلال إدارة ترامب – يهتم في الغالب بالفرص الاقتصادية للصناعة الأمريكية ، فإن خطة تطوير الذكاء الاصطناعي الصينية هي أكثر تركيزاً على مسألة كيفية حكم المجتمع بشكل أفضل ، ويحمل المزيد من المنطق السلوكي. المحاولات الأوروبية لتنظيم الذكاء الاصطناعي – مثل مشروع قانون الاتحاد الأوروبي للذكاء الاصطناعي ، أو لجنة دراسة الذكاء الاصطناعي (التي نشرها البوندستاغ الألماني) ، أو إستراتيجية الذكاء الاصطناعي الألمانية ، أو تقرير فيلاني الفرنسي لذكاء اصطناعي الهادف – تحقق أقصى استفادة من المعيارية اللغة والأكثر صراحةً الادعاء بإقامة توازن بين المطالب الاقتصادية والاعتبارات الأخلاقية. لذلك ، ستكون المناهج الأوروبية هي المحور الرئيس لبقية هذه الورقة.
تتميز المقترحات الأوروبية بإبراز أهمية نهج حقيقي فيما يتعلق بالقدرة التنافسية المستقبلية ، ولكن دون إغفال القيم الأوروبية التي يشار إليها تحت مظلة واسعة النطاق مثل الصالح العام أو الاستقلال الذاتي الفردي. تحت العنوان الأوسع للسيادة الرقمية ، يجب ألا تضمن أوروبا أنها تظل قادرة على تطوير البنية التحتية الرقمية الخاصة بها وصيانتها فحسب ، بل يجب أن تضمن أيضاً نشر الذكاء الاصطناعي فقط إذا انعكس تأثيره المجتمعي بشكل صحيح والتحكم فيه بشكل كاف. هنالك طريقتان رئيسيتان لتحقيق هذا الهدف: الأول هو أن جميع الوثائق الأوروبية الحديثة تقريبا هي مناهج قائمة على المخاطر ، وتحدد أنواع مختلفة من الاستخدام. على سبيل المثال ، يميز مشروع قانون الاتحاد الأوروبي للذكاء الاصطناعي بين الاستخدامات المحظورة مثل التقييم الاجتماعي ، والاستخدامات عالية الخطورة – حيث تنتشر الأسئلة المتعلقة بالصحة أو الأمن من بين أمور أخرى – والاستخدامات الأقل خطورة. يتمثل النهج الرئيسي الثاني – وغالباً ما يكون مرتبطاً – في المطالبة بمعايير عالية من الشفافية من أجل السماح باستخدام تطبيقات الذكاء الاصطناعي بواسطة الجهات الفاعلة الخاصة ولكن معالإشراف عليها وتأهيلها.
ما هي أهمية الإشارة إلى الديمقراطية والمخاطر المذكورة أعلاه في هذه الوثائق؟ تظهر الديمقراطية في الغالب كشرط أساس يرتبط ارتباطاً وثيقاً بالاعتبار المجرد للقيم الأوروبية. وهي ليست في حد ذاتها عاملاً رئيسياً في أي من تلك الوثائق ونادراً ما تم التركيز عليها كإعداد مؤسسي. ومع ذلك ، تم تناول كل مجال من المجالات الثلاثة المذكورة أعلاه في العديد من الوثائق الرئيسة.
فيما يتعلق بالتحول البنيوي للمجال العام ، فإن مشروع قانون الاتحاد الأوروبي للذكاء الاصطناعي ، على سبيل المثال ، يحظر استخدام الذكاء الاصطناعي في الإجراءات التلاعبية التداولية ويخلق مطالب الشفافية لاستخدام الروبوتات الاجتماعية والتزييف العميق. التقرير الطويل للجنة الدراسة الألمانية للذكاء الاصطناعي واسع جدًا في توصياته ، لكنه يناقش جميع القضايا التي تم تناولها أعلاه ، ويشدد على وجه التحديد على الحاجة إلى مراقبة أفضل للتطورات المتعلقة بالمجال العام. يؤكد تقرير فيلاني بالإضافة إلى ذلك على الحاجة إلى تنظيم السلطات الخاصة ، مع التركيز في الغالب على الجوانب الاقتصادية وتأمين القدرة التنافسية لأوروبا.
نادرا ًما يتم تناول الموضوعات المرتبطة مباشرة بالانتخابات الديمقراطية في مقترحات تنظيم الذكاء الاصطناعي. على الرغم من أن السبب قد يكون أن الانتخابات والحملات تعتبر أكثر من مشكلة في قوانين الانتخابات الوطنية ، نظراً لأن هذه غالباً ما تتكيف ببطء مع التغيرات التكنولوجية ، ينبغي إيلاء المزيد من الاهتمام لهذا الموضوع. الاستهداف الدقيق كممارسة محددة يتم تناوله بشكل غير المباشر في اللائحة العامة لحماية البيانات (GDPR) – للحصول على نظرة عامة .
فيما يتعلق بالخدمات العامة ، يمكن وصف الخط الرئيسي في النهج الأوروبية بأنه أنموذج يحتذى به. وهذا يعني أنه يُنظر إلى استخدامه في الإدارات العامة بشكل عام على أنه أمر مرغوب فيه ويتم تشجيعه ، لكن المقترحات التنظيمية تحاول صياغة معايير جودة مجردة للتأكد من أن استخدام تقنية الذكاء الاصطناعي يتم توصيله بشفافية وأن يتم وضع إجراءات غير متعلقة بالذكاء الاصطناعي للطعن في القرارات . يجب أن يخلق التطبيق الأخلاقي للذكاء الاصطناعي في بيئة الإدارة العامة عالية المخاطر حافزاً لتطوير الذكاء الاصطناعي للوفاء بمعايير الشفافية والمساءلة.
اظهرت التطورات التي تمت مناقشتها أن الخطاب حول الذكاء الاصطناعي والديمقراطية لا يزال في مهده. بدأت المعالجات الأكاديمية وتكييف السياسات في نفس الوقت تقريباً وما زالت حتى الآن مدفوعة في الغالب بمناقشات أوسع حول الرقمنة والديمقراطية وحالات انموذجية من إساءة الاستخدام. سيؤدي الانتشار المتوقع لتطبيقات الذكاء الاصطناعي في المجتمع إلى عمليات تفتيش أكثر شمولاً، ويمكن للمرء أن يتوقع على وجه الخصوص أن يصبح موضوع استخدام الذكاء الاصطناعي في الخدمات العامة قضية أكثر أهمية في العقد المقبل.