“صناديق سوداء” غير معلومة .. “غوغل” تحذر من مخاطر كبيرة محتملة للذكاء الاصطناعي !

“صناديق سوداء” غير معلومة .. “غوغل” تحذر من مخاطر كبيرة محتملة للذكاء الاصطناعي !

وكالات – كتابات :

قال “سوندار بيتشاي”؛ الرئيس التنفيذي لـ (غوغل) و(Alphabet)، إن الذكاء الاصطناعي؛ (AI)، سيؤثر قريبًا على: “كل منتج من منتجات كل شركة، محذرًا من المخاطر التي تُشكلها التكنولوجيا على قطاعات التوظيف وتوزيع المعلومات المضللة”.

وقال “بيتشاي”؛ لشبكة التلفزيون الأميركية (CBS): “نحن بحاجة إلى التكيف مع ذلك كمجتمع”. وأضاف أن نمو الوظائف واستدامتها سيتعطلان بالنسبة للصناعات التي تعتمد على ما أشار إليه: بـ”عمال المعرفة”، مثل الكتّاب والمحاسبين – وحتى المهندسين الذين صمموا البرمجيات.

وأطلقت (غوغل)؛ “روبوت الدردشة” للذكاء الاصطناعي، (Bard)، الشهر الماضي. وجاء ذلك بعد ظهور برنامج (ChatGPT) عبر الإنترنت من (OpenAI) في عام 2022، والذي حظي بدعاية كبيرة لقدرته على إعداد أوراق أكاديمية وكتابة مقاطع نثرية معقدة ومفصلة بلغة تُشبه لغة الإنسان، من بين أدوات أخرى.

ومع ذلك؛ فإن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي – وتحديدًا (ChatGPT) – كان لها منتقدوها. وتم حظره في “إيطاليا”؛ في وقتٍ سابق من هذا الشهر، بسبب مخاوف محتملة تتعلق بالخصوصية، بينما دعا عمالقة التكنولوجيا؛ “إيلون موسك” و”ستيف وزنياك”، إلى جانب عشرات الأكاديميين، إلى إيقاف تجارب الذكاء الاصطناعي مؤقتًا. ويجب: “تدقيق التكنولوجيا بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين”، وهي رسالة مفتوحة وقعها “موسك” و”وزنياك”.

وحذر “بيتشاي” أيضًا من المخاطر المحتملة للذكاء الاصطناعي. وقال إن انتشار الأخبار ومقاطع الفيديو والصور المزيفة سيكون: “أكبر بكثير”، و”قد يتسبب في ضرر”. وسبق أن نشرت (غوغل) وثيقة عبر الإنترنت تدعو إلى تنظيم التكنولوجيا للتأكد من أنها: “تتماشى مع القيم الإنسانية بما في ذلك الأخلاق”.

وأوضح لشبكة (CBS): “ليس للشركة أن تُقرر. لهذا السبب أعتقد أن تطوير هذا لا يجب أن يشمل فقط المهندسين؛ ولكن علماء الاجتماع وعلماء الأخلاق والفلاسفة وما إلى ذلك”. ووفقًا لـ”بيتشاي”، لا يزال هناك: “صندوق أسود” في الذكاء الاصطناعي: “لا نفهمه تمامًا”.

ولم يخل كل من (ChatGPT) و(Bard) من أخطائها. عندما طُلب من (Bard) شرح التضخم ل‍ـ”سكوت بيلي”؛ من شبكة (CBS)، أوصى بقراءة خمسة كتب لفهم الموضوع بشكل أفضل – لم يكن أي منها موجودًا. وفشل (ChatGPT) أيضًا في بعض المهام الأساسية، وقد ورد أنه قدم إجابات تبدو معقولة ولكنها غير صحيحة تمامًا بالنسبة للاستفسارات.

أخبار ذات صلة

أخبار ذات صلة