15 فبراير، 2024 7:08 ص

“تسّميم” البيانات .. تحذيرات علمية من ثغرات في “الذكاء الاصطناعي” !

Facebook
Twitter
LinkedIn

وكالات – كتابات:

يمكن أن يكون “الذكاء الاصطناعي” عُرضة للخطر بسبب أخطاء متعمدة أو غير متعمدة في البيانات التي يتم تدريبه عليها.

ويقول مدير معهد برمجة الأنظمة التابع لأكاديمية العلوم الروسية؛ “أرتيون أفيتيسيان”، إن هذا التهديد يتطلب تطوير قاعدة علمية وتكنولوجية جديدة.

وأوضح قائلاً: “إن طبيعة الذكاء الاصطناعي تتمثل في أن ثغرات في النموذج الذي نسّتغله تأتي من خلال البيانات. يمكن (تسّميم) البيانات، وهناك مصطلح من هذا القبيل. ويمكن وصول تلك الثغرات عن طريق نماذج تم تدريبها مسّبقًا، وأخيرًا عن طريق تدريب النموذج الأصلي أو تغيّيره بحيث يكون عرضة للخطر”. جاء ذلك على لسان “أفيتيسيان”؛ في مؤتمر (AI Journey) الدولي لقضايا “الذكاء الاصطناعي”؛ الذي اختتمت مؤخرًا أعماله في “موسكو”.

وأوضح أنه يمكن أن تتمثل مثل هذه الثغرة الأمنية؛ على سبيل المثال، في أن “الذكاء الاصطناعي” لن يُلاحظ جزءًا من البيانات التي تخضع للتحليل من قبله.

وحسّب “أفيتيسيان” فقد يكون: “التسّميم” غير مقصود، ويحدث بسبب عدم الكفاءة، ولكن يمكن استغلال هذه الثغرة الأمنية من قبل المهاجمين.

وأضاف العالم: “فيما يتعلق بالبيانات والنماذج الجاهزة، فإننا بحاجة إلى تطوير قاعدة علمية وتكنولوجية جديدة حتى نتمكن من التأكد من موثوقية هذه التكنولوجيات”.

وأعاد العالم الروسي إلى الأذهان أن “روسيا” تبنّت عام 2021؛ ميثاق الأخلاقيات في مجال “الذكاء الاصطناعي”، والتي تهدف أيضًا إلى ضمان سلامة القرارات المسّتندة إلى “الذكاء الاصطناعي”.

بينما أكد العالم استحالة التعرف على المضمون الذي يؤلفه “الذكاء الاصطناعي”، وقال إن مثل هذه التكنولوجيات غير موجودة لدينا أو حتى في الخارج. وأيد العالم فكرة وضع علامات خاصة على مضمون يؤلفه “الذكاء الاصطناعي”، مشيرًا إلى أن العالم المعاصر مضطر إلى تطبيق تكنولوجيات “الذكاء الاصطناعي” في شتى المجالات ولا يمكن الحد من انتشار تلك العملية.

أخبار ذات صلة

أخر الاخبار

كتابات الثقافية

عطر الكتب