وكالات – كتابات :
اشتغل كثير من النقاشات المتعلقة بالذكاء الاصطناعي بتعقُّب تأثيره على وظائف ذوي الياقات البيضاء؛ (أصحاب الأعمال المكتبية)، والخطر الذي يواجهونه بانقراض وظائفهم، على غرار ما تعرضت له الطبقة العاملة بعد انتشار الروبوتات؛ (كما تروج وسائل الإعلام الغربية والعالمية التابعة والمدعومة من الكارتيلات التكنولوجية الاحتكارية من ادعاءات ومبالغات)، ومع أن الاحتمال قائمٌ بأن يُباغتنا الذكاء الاصطناعي بقدرته على القيام بكثير من الأعمال التي يضطلع بها المحامون والمحاسبون والمعلمون والمبرمجون والصحافيون، فإن هذه المجالات ليست هي التي يُتوقع أن يُحدث فيها الذكاء الاصطناعي ثورته الأكبر أهمية.
هل يُحدث الذكاء الاصطناعي ثورة في الحروب البشرية ؟
الواقع أن التقنيات الحديثة للذكاء الاصطناعي – المعروفة باسم المحولات التوليدية المدربة مسّبقًا؛ (GPT) – تُنذر بإحداث تحول شامل في الجغرافيا السياسية لقدرات الحروب العسكرية والردع. وهذا التحول لن يكون أمرًا هينًا، بل قد يشتمل على تغييرات وجودية شديدة التأثير في واقعنا، كما يقول تقرير لمجلة (فورين بوليسي) الأميركية.
فمن جهةٍ؛ يمكن لهذه التكنولوجيا أن تجعل الصراعات أقل فتكًا بالبشر، وأشد تعزيزًا للردع. ومثال ذلك: توسّيع مشاركة الطائرات المُسّيرة الموجهة بالذكاء الاصطناعي في القوات الجوية والبحرية والجيوش، ومن ثم استباق النزاعات قبل تحولها إلى معارك شاملة وإنقاذ البشر من عواقبها.
وقد بدأت “وزارة الدفاع” الأميركية؛ (البنتاغون)، بالفعل في تجربة روبوتات الذكاء الاصطناعي لقيادة طائرة مقاتلة معدلة من طراز (إف-16)؛ واختبرت “روسيا” مركبات ذاتية القيادة شبيهة بالدبابات؛ وبادرت “الصين” إلى تقديم أنظمتها الدفاعية العاملة بالذكاء الاصطناعي، ويتوقع أن تتوسّع في استخدام الطائرات المُسيّرة المسّلحة في السنوات القادمة.
برامج عسكرية سّرية تعتمد على الذكاء الاصطناعي..
في غضون ذلك؛ فإن “الولايات المتحدة” تُدير أحد أكبر المشروعات المعروفة في تطوير الذكاء الاصطناعي العسكري، وإن كان المشروع لا يزال في أطواره الأولى، وهو برنامج سّري للقوات الجوية الأميركية، يهدف للانتقال إلى الجيل القادم من الهيمنة الجوية، ويعتمد على إنتاج ألف طائرة مُسيّرة ذات قدرات خاصة، تُسّمى طائرات مقاتلة معاونة، تعمل كطائراتٍ مرافقة لنحو: 200 طائرة مقاتلة يقودها طيارون.
قال “دوغلاس شو”، كبير المستشارين في منظمة (مبادرة الحد من التهديد النووي) الأميركية: “لا أستبعد أن يتجاوز عدد الطائرات المُسّيرة عدد أفراد القوات المسّلحة في المستقبل”. ويرى “تشارلز والد”، الجنرال المتقاعد بالقوات الجوية الأميركية، أن ذلك العامل “سيُضاعف من قوة الجيوش، خاصة أن إحدى أكبر المشكلات التي تواجهها في الوقت الحالي هي عجز التجنيد”.
من جهة أخرى؛ يمكن لبرامج الذكاء الاصطناعي أن تقود القوى الكبرى إلى تقليص فترة اتخاذ القرار إلى دقائق بدلاً من ساعات أو أيام؛ إذ قد تزيد تلك القوى من اعتمادها على التقارير الاستراتيجية والتكتيكية التي يقدمها الذكاء الاصطناعي، حتى إن كان الأمر يتعلق بالحرب النووية. وقال “هربرت لين”، من جامعة “ستانفورد”، إن الخطر يكمن في أن صانعي القرار يمكن أن يتوسَّعوا تدريجيًا في الاعتماد على الذكاء الاصطناعي في أنظمة القيادة والتحكم في الأسلحة، لأنها تعمل بسرعة أكبر بكثير من قدرات البشر.
في كتاب نُشر هذا العام، تحت عنوان: (الذكاء الاصطناعي والقنبلة-AI and the Bomb)، تخيَّل المؤلف “جيمس جونسون”، من جامعة “أبردين” البريطانية، حربًا نووية عرضية في “بحر الصين” الشرقي؛ في عام 2025، تشتعل بغتةً بالاستناد على معلومات استخباراتية مدعومة بالذكاء الاصطناعي لدى الجانبين الأميركي والصيني، والقوى المحركة فيها روبوتات مزودة بتكنولوجيا الذكاء الاصطناعي قادرة على القيام بعمليات التزييف العميق وعمليات التمويه والخداع العسكرية.
الآلات لا تُفكر !
قال “لين”، خبير الأمن السّيبراني، إن المشكلة الحقيقية تكمن في أن بعض الناس يقتنعون بسهولة بأن الذكاء الاصطناعي يتمتع بالوعي، على الرغم من أن جميع المعايير التي نحتكم إليها تُشير إلى أن المحولات التوليدية إنما هي أدوات تقدِّم ميزة الإكمال التلقائي، أي أنها مثل محركات البحث وأدوات الاستعلام بقواعد البيانات. وفي ظل المبالغات المعقودة على قدرات الذكاء الاصطناعي، فإن: “الناس قد يبدأون في التوهّم بأن الآلات تفكر، وربما يدفعهم ذلك إلى فعلِ أشياء مجنونة”.
في تقرير نُشر؛ في أوائل شباط/فبراير، قالت “رابطة الحد من الأسلحة” الأميركية، إن الذكاء الاصطناعي وغيره من التقنيات الجديدة؛ مثل الصواريخ التي تفوق سرعتها سرعة الصوت، يمكن أن تؤدي إلى: “التباس التميّيز بين الهجوم التقليدي والنووي”.
وذكر التقرير أن التهالك على: “استغلال التقنيات الناشئة للاستخدام العسكري قد اشتد بوتيرة أسّرع بكثير من الجهود المبذولة لتقيّيم مخاطرها، وتنظيم استخدامها. لذا يتعين الإبطاء من وتيرة استخدام هذه التقنيات في الأغراض العسكرية، وموازنة المخاطر بعناية عند القيام بذلك، واعتماد قيود ذات شأن على استخدامها عسكريًا”.
اعتماد متزايد على الذكاء الاصطناعي..
زعم مسؤولون أميركيون أن “الولايات المتحدة” تفعل ذلك، لكن الواقع أن الاعتماد على هذه الأدوات ربما يدفع بهم إلى الخوض فيما يُعرف بمغالطة المنحدر الزلق، أي اسّتدراجهم إلى سلسلة من العواقب التي تنتهي بنتيجة كارثية.
ففي كانون ثان/يناير الماضي، حدَّثت “وزارة الدفاع” الأميركية توجيهاتها بشأن أنظمة الأسلحة التي تنطوي على استخدام الذكاء الاصطناعي، وقالت إنه يجب الاحتكام إلى البشر بقدرٍ أكبر في تطوير أنظمة الأسلحة المستقلة ونشرها. ومع ذلك، فإن (البنتاغون) تجري في الوقت نفسه تجربة لإدماج الذكاء الاصطناعي في عملية صنع القرار لدى جميع فروع الخدمة العسكرية.
علاوة على ذلك؛ من المتوقع أن تسّتحث “وزارة الدفاع” الأميركية خطوات الاعتماد على الذكاء الاصطناعي، لا سيما في ظل إقبال الإدارة الأميركية في عهد الرئيس؛ “جو بايدن”، على تقيّيد صادرات التكنولوجيا الفائقة إلى “الصين”، وخاصة أشباه الموصلات المتقدمة، سّعيًا إلى الحفاظ على الريادة الأميركية الحالية في مجال الذكاء الاصطناعي؛ بحسب ادعاءات الآلة الدعائية الأميركية المضللة.
في خطاب ألقاه اللفتنانت جنرال “جاك شاناهان”، المدير السابق لمركز الذكاء الاصطناعي المشترك في (البنتاغون)، في عام 2019، قال إن “وزارة الدفاع” كانت تسّعى بشغف إلى: “تعزيز التكامل في قدرات الاعتماد على الذكاء الاصطناعي”، لكن هذا لن يشمل بالتأكيد أدوات القيادة والتحكم في استخدام الأسلحة النووية. وأوضح “شاناهان” أن الذكاء الاصطناعي لن تكون له سّيطرة مباشرة على: “أنظمة الأسلحة الفتاكة المستقلة”، “لكننا سنستخدم الذكاء الاصطناعي في تعزيز أنظمة أسلحتنا… لضمان أفضليتنا. إنه وسيلة لإنقاذ الناس، ومساعدتنا في ردع الخصوم واستباق الحروب لمنع وقوعها”.
في معرض الرد على سؤال بشأن رؤية الصينيين والروس وغيرهم لقواعد استخدام الذكاء الاصطناعي العسكري، قال: “أرى أن الولايات المتحدة لن تمضي قدمًا في طريق السماح لهذه الأدوات بأن تحل مكان السيطرة البشرية”، “لكنني لست على يقين من أن الجهات الأخرى ستفعل ذلك، لا سيما إذا وقعت هذه الأدوات في الأيدي الخطأ واستخدمت استخدامًا خاطئًا”.
مخاطر أكبر..
ومن دواعي القلق أيضًا أن تكنولوجيا الذكاء الاصطناعي المتقدمة يمكن أن تسّمح للجهات المارقة؛ مثل الإرهابيين، باكتسّاب المعارف اللازمة لبناء القنابل الإشعاعية، أو غيرها من الأسلحة الفتاكة. فالذكاء الاصطناعي زاد استخدامه بين جهات أكثر بكثير مما كانت عليه الأمور خلال الحرب الباردة، ما يعني أنه قد يُستخدم للكشف عن مواقع الأسلحة النووية.
قال “شو”؛ كبير المستشارين في “منظمة الحد من التهديد النووي”، إن: “الذكاء الاصطناعي سيُغير من طبيعة إخفاء الأشياء والعثور عليها”، لا سيما أن كثيرًا من البيانات صارت مملوكة اليوم لشركات خاصة معرضة للاختراق والتجسّس المدفوع بالذكاء الاصطناعي. والخلاصة أنه من الواضح أن العالم يشهد سباق تسّلح جديدًا في مجال الذكاء الاصطناعي، وربما لا يوجد الكثير مما يمكن فعله لإيقاف هذا السّباق.
كان أكثر من: 2000 من قادة شركات التكنولوجيا والباحثين فيها – منهم “إيلون ماسك”، مؤسس شركة (تسلا)، و”ستيفن وزنياك”، رائد ثورة الحواسيب الشخصية في السبعينيات – قد وقَّعوا في أواخر آذار/مارس، على عريضةٍ تحث مختبرات الذكاء الاصطناعي في جميع أنحاء العالم على التوقف مؤقتًا عن تدريب نماذج الذكاء الرقمي بسبب المخاوف المتنامية من كوارث قد تُلحق بالبشرية من جراء استمرار هذا السّباق دون تقيّيد أو تنظيم له.
البعض يرى هذه المخاطر “مبّالغًا فيها”..
في المقابل؛ وصف بعض خبراء الذكاء الاصطناعي هذا التحذير من خطر وجودي على المجتمعات بأنه مبّالغ فيه إلى حدٍّ ما، وانتقدوا العريضة زاعمين أنها: “تبث الخوف” على أساس التوهم بأن برامج الذكاء الاصطناعي قد تُصبح واعية، على غرار ما يحدث في أفلام الخيال العلمي. ومع ذلك، يقول “لين”: “نحن لا نتحدث عن كائنات شريرة يمكن أن تدمر الحضارة الإنسانية كما يحدث في فيلم (1984) الشهير. لكن الإفراط في الاعتماد على هذه الأدوات قد ينجم عنه وقوع خطأ بشري، وهذه الأدوات إنما هي ذخيرة موجهة بدقة ضد الذكاء البشري والعقلانية البشرية”.
من جهة أخرى؛ فمن المسّتبعد بشدة أن تفرض الحكومات عقوبات لإلزام الجهات المعنية بإيقاف أبحاث الذكاء الاصطناعي، وهذا ليس فقط لأن كبرى شركات التكنولوجيا في العالم منخرطة في منافسة شرسة على تطوير هذه الأدوات، لا سيما الشركات الأميركية في (وادي السيليكون)، ولكن أيضًا لأن التكنولوجيا الجديدة تنامى الاعتماد عليها في مرحلةٍ تشهد منافسة كبرى بين “الولايات المتحدة والصين وروسيا” على النفوذ العالمي.
قال “ديفيد ديبتولا”، اللفتنانت جنرال المتقاعد من القوات الجوية الأميركية: “حتى لو أوقفت الولايات المتحدة أبحاث تطوير الذكاء الاصطناعي للأغراض العسكرية، فإن الصينيين والروس – بدرجة أقل – سيُواصلون بالتأكيد أبحاثهم في مجال الذكاء الاصطناعي”.
لم تكن الرسالة المفتوحة من رواد قطاع التكنولوجيا؛ إلا دليلاً جديدًا على حالة الذعر المنتشرة منذ ظهور تطبيقات (ChatGPT) للذكاء الاصطناعي؛ منذ أواخر الخريف الماضي، وإقبال شركات التكنولوجيا الكبرى على تقديم أنظمتها للذكاء الاصطناعي المحتوية على مع ما يُسّمى بأدوات الذكاء البشري التنافسي.
على الرغم من ذلك؛ فإن الرئيس الروسي؛ “فلاديمير بوتين”، قالها صريحةً منذ عام 2017، إن: “منْ تكون له الريادة في هذا المجال؛ (الذكاء الاصطناعي)، ستكون له السّيادة على العالم”، وحروب المستقبل سينتصر فيها: “الطرف الذي تدمر طائراته المُسيّرة طائرات الطرف الآخر”.
ومع ذلك، تتفق بعض الجهات مع المخاوف المستجدة من الذكاء الاصطناعي، وتأثيراتها على مستقبل البشر. وفي هذا السياق، تجري “وكالة مشروعات الأبحاث الدفاعية المتقدمة”؛ التابعة لـ (البنتاغون)، برنامجًا بحثيًا واسع النطاق يُسّمى: “مستقبل الذكاء الاصطناعي”، وقال “مات توريك”، المتحدث باسم الوكالة، إن أنظمة الذكاء الاصطناعي التوليدية مثل: (ChatGPT)، قد أثارت مخاوف جديدة خطيرة حول الاعتماد على هذه الأدوات في اتخاذ القرارات الوجودية الكبرى (مثل استخدام الأسلحة النووية).