لأنه يسبب مخاطر كبيرة .. “سامسونغ” تحظر استخدام أدوات الذكاء الاصطناعي على موظفيها !

لأنه يسبب مخاطر كبيرة .. “سامسونغ” تحظر استخدام أدوات الذكاء الاصطناعي على موظفيها !

وكالات – كتابات :

حظرت شركة (سامسونغ) استخدام موظفيها لأدوات الذكاء الاصطناعي التوليدية الشهيرة؛ مثل (ChatGPT)، بعد اكتشاف قيام موظفين بتحميل كود حسّاس على النظام الأساس.

وأخطرت شركة (Suwon)، ومقرها “كوريا الجنوبية”، الموظفين في أحد أكبر أقسامها، بشأن السياسة الجديدة.

ووفقًا لوثيقة تم توزيعها على الموظفين، تشعر الشركة بالقلق من أن البيانات التي يتم إرسالها إلى منصات الذكاء الاصطناعي هذه؛ بما في ذلك: (Google Bard) و(Bing)، يتم تخزينها على خوادم خارجية، مما يجعل من الصعب استردادها وحذفها، وقد ينتهي الأمر بالكشف عنها لمستخدمين آخرين.

وأجرت الشركة استبيانًا؛ الشهر الماضي، حول استخدام أدوات الذكاء الاصطناعي داخليًا، وقالت إن: 65% من المشاركين يعتقدون أن مثل هذه الخدمات تُشكل خطرًا أمنيًا. وفي وقتٍ سابق من نيسان/إبريل، سّرب مهندسو (سامسونغ)؛ عن طريق الخطأ، كود المصدر الداخلي عن طريق تحميله إلى (ChatGPT).

وقالت (سامسونغ) للموظفين: “الاهتمام بمنصات الذكاء الاصطناعي التوليدية؛ مثل (ChatGPT)، ينمو داخليًا وخارجيًا. وبينما يُركز هذا الاهتمام على فائدة وكفاءة هذه المنصات، هناك أيضًا مخاوف متزايدة بشأن المخاطر الأمنية التي يُقدمها الذكاء الاصطناعي التوليدي”.

وتحظر قواعد (سامسونغ) الجديدة استخدام أنظمة الذكاء الاصطناعي التوليدية على أجهزة الكمبيوتر والأجهزة اللوحية والهواتف المملوكة للشركة، وكذلك على شبكاتها الداخلية.

ولا تؤثر هذه القرارات على أجهزة الشركة المباعة للمسّتهلكين، مثل الهواتف الذكية التي تعمل بنظام (آندرويد) وأجهزة الكمبيوتر المحمولة التي تعمل بنظام (ويندوز).

وطلبت (سامسونغ) من الموظفين الذين يستخدمون (ChatGPT) والأدوات الأخرى على الأجهزة الشخصية، عدم إرسال أي معلومات متعلقة بالشركة أو بيانات شخصية يمكن أن تكشف عن ملكيتها الفكرية. وحذرت من أن انتهاك السياسات الجديدة قد يؤدي إلى الطرد.

أخبار ذات صلة

أخبار ذات صلة