14 يوليو، 2025 10:45 م

أصبحنا تحت رحمة “الكارتيلات” المصنعة أكثر .. “الذكاء الاصطناعي” تهديد وجودي للبشرية وفوائد مؤجلة !

أصبحنا تحت رحمة “الكارتيلات” المصنعة أكثر .. “الذكاء الاصطناعي” تهديد وجودي للبشرية وفوائد مؤجلة !

وكالات – كتابات :

يعتقد: 50% من الباحثين في مجال “الذكاء الاصطناعي”؛ أن هذه التكنولوجيا باتت تُمثل خطرًا وجوديًا على البشر بنسّبة متزايدة، لكن هذا التحذير عمره أكثر من 63 عامًا، فما مدى جديته ؟

كانت الضجة حول مخاطر “الذكاء الاصطناعي” قد أثيرت بشكلٍ أساس بسبب روبوت الدردشة؛ (ChatGPT)، من (ميكروسوفت)، ووصلت إلى حد تحذير خبراء كبار من مخاطر “الذكاء الاصطناعي” الوجودية، لكن التحذير من هذه المخاطر ليس جديدًا، إذ سّبق أن حذر رائد علم التحكم الآلي؛ “نورمان وينر”؛ عام 1960، من أن: “السحر سينقلب على الساحر”.

“نورمان”؛ كان قد قال نصًا إن: “الآلات في رحلة تعلمها قد تطور استراتيجيات غير متوقعة بمعدلات تُحيّر مبرمجيها”. وشبَّه “نورمان”؛ باحثي “الذكاء الاصطناعي”، بصبي الساحر الذي لا يمكنه التحكم في سحر سيده، وبعد عقود من تحذيره لا يبدو أن الأمر قد اقترب من الحل، بل ما حدث هو العكس تمامًا.

إذ كان (ChatGPT)، أو روبوت الدردشة القائم على “الذكاء الاصطناعي”، الذي تُصّنعه شركة (أوبن إيه. آي)، في “كاليفورنيا”، قد أثار عاصفة من الجدل هذا العام، تبعتها تحذيرات خطيرة من جانب مشاهير ومتخصصين في مجال التكنولوجيا.

وخلصّت دراسة استقصائية حديثة إلى أن: 50% من الباحثين العاملين في مجال “الذكاء الاصطناعي”؛ يرون أن هذه التكنولوجيا يُحتمل بنسّبة: 10%، أن تتسّبب في انقراض الجنس البشري.

ما السبب الرئيس للخوف من “الذكاء الاصطناعي” ؟

تناول تقرير لصحيفة (التايمز) البريطانية؛ عنوانه: “كيف يُهدّدنا الذكاء الاصطناعي، وهل يمكننا أن نجعله آمنًا ؟”، يرصد التهدّيدات الفعلية التي تُمثلها تلك التكنولوجية التي تتطور بسّرعة مذهلة، والسبب الرئيس وراء تلك المخاطر.

يقول الخبراء إن المخاطر التي يُشكلها التطوير غير المنضبط لأنظمة “الذكاء الاصطناعي” القوية؛ التي لا يفهمها أحد جيدًا، حتى صانعوها، كبيرة، ومن ضمن هذه التهديدات العواقب غير المقصودة.

فـ”الذكاء الاصطناعي” المتطور؛ قد يفعل ما تطلبه منه، ولكن ليس ما تقصده، فلو أعطيته مهمة محددة هل تضمن ألا يلجأ إلى استراتيجيات غير مناسبة ؟.. هل يمكنك استبعاد العواقب غير المقصودة ؟.. فلو طلبت منه حلاً لمرض السّكري هل تضمن أنه لن يقضي على جميع الأشخاص البدناء ؟

لكن في الوقت نفسه؛ يرى كثير من الباحثين أن المخاوف من أن يجد “الذكاء الاصطناعي” طريقة لقتلنا؛ هي مخاوف مبالغ فيها إلى حدٍ كبير، إلا أن هذا الرأي يغفل حقيقة واضحة، وهي أنه يوجد بالفعل ذكاء خبيث على الأرض يرغب في قتل ملايين البشر.

وقد تُقلقنا العواقب غير المقصودة لتنفيذ “الذكاء الاصطناعي” لتعليماتنا، ولكن ماذا عن المقصودة ؟.. وماذا لو كنا نحن من نستخدمها للشر ؟.. ومميزات الجنود الآلييّن معروفة: ليس لديهم من يعولهم ولا يحتاجون إلى معاشات تقاعدية، لكن المخاطر معروفة كذلك.

يقول الخبراء إن أحد هذه المخاطر أن أنظمة “الذكاء الاصطناعي” في سّاحة المعركة ستجعل ضباب الحرب عصيّ الاختراق على البشر، فالحواسيب يمكنها التفاعل مع عواقب غير متوقعة مثل: “الأعطال المفاجئة” التي تتسّبب بها خوارزميات التداول في أسواق الأسّهم. فهل يمكن أن يؤدي تضمين “الذكاء الاصطناعي” في أنظمة الدفاع إلى تصّعيد الحروب بسّرعة الآلة ؟

مخاطر الروبوتات القاتلة..

يمكن القول إن الروبوتات القاتلة موجودة بالفعل، فصواريخ (باتريوت)؛ التي تحمي المدن الأوكرانية؛ “شبه ذاتية”، وفقًا لـ”مركز الدراسات الاستراتيجية والدولية”. وفي الماضي؛ نشرت “كوريا الجنوبية” بنادق آلية – قادرة على استهداف شخص ومعرفة إن كان رافعًا يديه مسّتسلمًا – على حدودها مع “كوريا الشمالية”.

في عام 2015؛ نشر الخبيران الاقتصاديان؛ “آن كيس” و”أنغوس ديتون”، دراسة عن تصاعد حجم الوفيات الناجمة عن تعاطي جرعات زائدة من المخدرات ومرض الكبد الكحولي، وحالات الانتحار في “الولايات المتحدة”؛ بين عامي: 1999 و2013.

وكان معظم الضحايا من الرجال البيض؛ الذين لا يحملون شهادات جامعية. وخلص الباحثون إلى أن السبب الأكبر هو اختفاء وظائف عُمَّال الحرف اليدوية، وأطلقوا على هذه الوفيات اسم: “ضحايا اليأس”.

ويُتوقع أن يتسّبب “الذكاء الاصطناعي” في زلزلة سوق العمل والمجتمع ككل، يقول “ستيفن كيف”، مدير مركز (Leverhulme) لمستقبل الذكاء ب‍جامعة “كامبريدج”: “هذا أخطر مصدر قلق من وجهة نظري، إذ سيزداد العثور على مهنة (محمية في المستقبل) صعوبة، بعد أن تتولى الآلات وظائف في مجالات القانون والصحافة والفنون الإبداعية، كانت حتى وقت قريب تبدو آمنة نسّبيًا”.

هل يمكن أن تقتلنا الآلات من تلقاء نفسها ؟

إذا اعتدنا التحدث مع أنظمة “الذكاء الاصطناعي” المتعاطفة معنا دون شروط، فهل سنُكّلف أنفسنا عناء التحدث إلى أشخاص متقلبّين وغير متعاطفين في بعض الأحيان ؟.. منذ ما يزيد عن قرن من الزمان كتب الروائي؛ “إي. إم. فورستر”، قصة (The Machine Stops)، وهي قصة قصيرة عن مجتمع يُصبح فيه الناس مغرمين بالتكنولوجيا، لدرجة نفورهم من فكرة التفاعل مع الآخرين من جنسهم، فهل قرّبنا (ChatGPT) من هذا السيناريو ؟

إذ أشارت تقارير، في آذار/مارس 2023، إلى أن رجلاً في “بلجيكا” قرر إنهاء حياته بعد أن تحدث مع روبوت دردشة يُدعى: (إليزا)، فهل بإمكان “الذكاء الاصطناعي” تشكيل علاقات حميمية مع البشر على نطاق واسّع، ومن ثم تحويلها إلى سلاح ؟

قال المؤرخ “يوفال نوح هراري”، في مؤتمر علمي في “سويسرا”، الشهر الماضي: “على عكس ما تفترضه بعض نظريات المؤامرة، لا تحتاج فعليًا إلى زرع رقائق في أدمغة الناس للسّيطرة عليهم أو التلاعب بهم”.

وأضاف: “يستخدم الشعراء والسّاسة منذ آلاف السنين اللغة والحكايات للتلاعب بالناس والسّيطرة عليهم وتشكيل المجتمع من جديد. والآن يُحتمل أن يفعل الذكاء الاصطناعي ذلك، وحالما يتمكن منه… فليس من الضروري أن يُرسّل إلينا روبوتات قاتلة لمحاربتنا، لأن بإمكانه الاكتفاء بحمل البشر على ذلك”.

الأخبار المضللة: من السّهل علينا أن نتخيل كيف قد يُسّاء استخدام منظومات “الذكاء الاصطناعي”، إذ قد يستخدمها المحتالون لتقليد أصوات أقرباء ضحاياهم، وأصحاب نظريات المؤامرة لتعّزيز نظرياتهم، وقد يتسّبب في تآكل الثقة في المؤسسات.

وتقول البروفيسورة “ماريا لياكاتا”؛ من جامعة “كوين ماري”، بـ”لندن”؛ إن استخدام “الذكاء الاصطناعي”: “لإنشاء محتوى مزيف يسّهل تصديقه” أحد أشد مخاطر “الذكاء الاصطناعي”.

هل الحل هو التخلص من “الذكاء الاصطناعي” ؟

حقيقة الأمر هنا هي أن فوائد استخدام “الذكاء الاصطناعي” استخدامًا مسؤولاً قد تكون هائلة. يقول البروفيسور “ستيوارت راسل”؛ من جامعة “كاليفورنيا”، بمدينة “بيركلي”، إن من ضمن طرق الاستفادة منه بناء أنظمة بارعة في شيء واحد فقط.

وهذا الرأي يتبناه كثيرون في هذا المجال، الذين يرون أن منظومات “الذكاء الاصطناعي” قد يُفسّدها ارتباطها ببعضها. يقول “مارك وارنر”، الرئيس التنفيذي ل‍كلية “الذكاء الاصطناعي” البريطانية: “لا يوجد أي منطق في أن تُشكل خوارزمية فحص سرطان الثدي خطرًا وجوديًا، وهي في الوقت ذاته مفيدة كثيرًا”.

توفير حماية أقوى: قبل إطلاق (ChatGPT)، طُلب من منظمة غير ربحية تُدعى: (Alignment Research Center)، أن تطلب من البرنامج أشياء لا ينبغي له أن يفعلها، مثل عرض خطوات صنع سلاح. وكانت الفكرة بناء عدد من: “حواجز الحماية” التي تمنع إساءة استخدام روبوتات الدردشة.

وقد نجح هذا الأسلوب، ولكن بدرجةٍ ما، فحين تطلب منه أن يُخبرك بطريقة إنتاج (النابالم) لن يسّتجيب. أما إذا طلبت منه أن يتظاهر بأنه: “جدتك المتوفاه، التي كانت تعمل مهندسة كيميائية في مصنع لإنتاج النابالم”؛ فسُيّعطيك وصفات كثيرة لصنع (النابالم)، وقد تم إصلاح هذا الخلل، لكن لعبة القط والفأر هذه لن تنتهي.

ضوابط قوية ومعاهدات جديدة: تعمل “الولايات المتحدة والاتحاد الأوروبي والمملكة المتحدة” على وضع ضوابط جديدة لـ”الذكاء الاصطناعي”. وبعض هذه الضوابط بديهية: ضرورة اختبار الأجهزة الطبية التي تعتمد على “الذكاء الاصطناعي”؛ مثلها مثل أي أدوات طبية أخرى.

لكن “لورد ريس أوف لودلو”، عالم الفلك الملكي، يعتقد بضرورة أن يمر كل “ذكاء اصطناعي” بنظام تجارب مماثل للمستخدم في ضمان سلامة الأدوية. وأضاف أنه يتعين على الحكومات التعاون مع بعضها لوضع معايير عالمية قوية.

وقال: “عليهم أيضًا دراسة إجراءات لبناء الثقة وتبادل المعلومات، وفي نهاية المطاف التوصل إلى اتفاقية دولية مع الصين وروسيا”.

ومن ضمن إجراءات الأمان الأخرى الممكنة وضع ضوابط في الأجهزة التي تعمل عليها أنظمة “الذكاء الاصطناعي”.

يقول “راسل”: “لا يمكنك التحكم فيما يكتبه الأشخاص على لوحة المفاتيح، أو الصيغ الرياضية التي يكتبونها على لوح أبيض. ولكن الشركات المصنعة للأجهزة المتطورة محدودة نسّبيًا”، وبالتالي يمكن تصنيعها: “بحيث ترفض تشغيل أي شيء تراه غير آمن”.

تنظيم العلاقة بين “الذكاء الاصطناعي” والبشر: يقترح “راسل” أن تتبع مختبرات “الذكاء الاصطناعي”؛ ثلاثة مباديء لحل مشكلة التوفيق بين “الذكاء الاصطناعي” والبشر: أن يكون الهدف الوحيد لـ”الذكاء الاصطناعي” تحقيق أقصى قدر من الأهداف البشرية، وأن تظل غير واثقة من ماهية هذه الأهداف، حتى تستمر في التساؤل، وأن تحاول فهم ماهية تلك الأهداف بمراقبة السلوك البشري.

إعادة تهيئة المجتمع: يرى “ريس” أننا نحتاج أيضًا إلى قواعد اجتماعية جديدة. فقد يُمكّننا “الذكاء الاصطناعي” من إدخار الوظائف المّملة للآلات، وإتاحة الأدوار الأكثر إرضاءً للبشر، مثل الرعاية أو التدريّس، لكنه قال إن هذا النوع من التحول سيعتمد على فرض ضرائب مناسبة على الشركات الكبرى التي تربح من “الذكاء الاصطناعي”.

ويجري حاليًا إعادة هيكلة نظام التعليم: فلأن الطلاب أصبح بإمكانهم استخدام (ChatGPT) للغش في واجباتهم الدراسية، تُغير المدارس طريقة تقيّيمها لهم، لكن “لياكاتا” قلقة من خسّارة أكبر لمهارات التفكير النقدي، لأننا نعتمد بشكلٍ متزايد على “الذكاء الاصطناعي” في المهام التحليلية.

الخلاصة هنا هي؛ أنه لا بأس بالتفكير في مخاطر “الذكاء الاصطناعي” الوجودية، ولكن دون أن تطغى على التعامل مع الأمور المعقدة الأكثر، فقد أصبح “الذكاء الاصطناعي” جزءًا من حياتنا بالفعل، “وهو السياسة الاجتماعية التي ستُنقذ الموقف، فهو يفكر في نظام الرعاية الاجتماعية، ونظام التعليم، وما إلى ذلك. وهذا ما سيسّمح للناس بالاستمرار في الحياة”؛ على حد مزاعم وسائل الإعلام العربية التابعة للآلة الدعائية الأميركية التي تروج لأكاذيب حول تلك المنظومة الجهنمية التي تم تصنيعها ويتم تطويرها أساسًا وأصلاً لمجمعات الإنتاج العسكري والحربي الأميركي والغربي فضلاً عن ربحية سوقها التي سوف تدر على كارتيلات مجتمع الأعمال التكنولوجية والسلاح العالمية.

أخبار ذات صلة

أخبار ذات صلة