88% من المهنيين في الإمارات يستخدمون أدوات الذكاء الاصطناعي في عملهم - بلس 48

0 تعليق ارسل طباعة تبليغ حذف
الذكاء الاصطناعي

الذكاء الاصطناعي

محمد عاطف

كشفت دراسة حديثة أجرتها شركة كاسبرسكي بعنوان «الأمن السيبراني في مكان العمل: معرفة وسلوك الموظفين» أن 88% من المهنيين في الإمارات يستخدمون أدوات الذكاء الاصطناعي في مهامهم اليومية.

ورغم هذا الانتشار الواسع، أفاد 41% فقط من المشاركين بأنهم تلقّوا تدريبًا حول الجوانب الأمنية المرتبطة باستخدام الشبكات العصبية، والتي تُعد من الركائز الأساسية للوقاية من مخاطر الذكاء الاصطناعي مثل تسرب البيانات أو هجمات إدخال الأوامر.

فهم واسع للذكاء الاصطناعي التوليدي في الإمارات

إدراك متزايد واستخدام عملي

أوضح 94% من المشاركين في الاستطلاع أنهم يدركون معنى مصطلح “الذكاء الاصطناعي التوليدي”، مشيرين إلى أن هذا الفهم لم يعد نظريًا فحسب، بل أصبح تطبيقيًا في حياتهم المهنية اليومية.

وتبيّن أن 88% من الموظفين يستخدمون أدوات الذكاء الاصطناعي لأغراض متعددة، أبرزها:

كتابة النصوص وتحريرها (63%)

صياغة رسائل البريد الإلكتروني (64%)

إنشاء الصور أو مقاطع الفيديو عبر الشبكات العصبية (43%)

تحليل البيانات (44%)

نقص في استعداد الموظفين لمخاطر الذكاء الاصطناعي

فجوة واضحة في التدريب الأمني

أظهرت الدراسة وجود فجوة كبيرة في جاهزية الموظفين للتعامل مع المخاطر الأمنية للذكاء الاصطناعي، حيث ذكر 26% من المشاركين أنهم لم يتلقّوا أي تدريب بهذا الشأن.

ومن بين من حصلوا على تدريب:

ركّز 55% على الاستخدام الفعّال للأدوات وإنشاء الأوامر.

بينما تلقّى 41% فقط تدريبًا يتعلق بالجوانب الأمنية.

أدوات الذكاء الاصطناعي بين الاستخدام المؤسسي و«تكنولوجيا الظل»

استخدام واسع بدون رقابة كافية

رغم الانتشار المتزايد لأدوات الذكاء الاصطناعي في المؤسسات، إلا أن العديد منها يُستخدم ضمن ما يُعرف بـ «تكنولوجيا الظل» — أي دون إشراف أو توجيه رسمي من الإدارة.

وأشار المشاركون إلى أن:

77% من أماكن العمل تسمح باستخدام أدوات الذكاء الاصطناعي التوليدي.

17% لا تسمح باستخدامها.

6% غير متأكدين من سياسات مؤسساتهم في هذا الشأن.

الحاجة إلى سياسات مؤسسية واضحة لاستخدام الذكاء الاصطناعي

توصيات كاسبرسكي للحد من المخاطر

أكدت شركة كاسبرسكي على ضرورة وضع سياسة مؤسسية شاملة تنظم استخدام الذكاء الاصطناعي داخل المؤسسات، وتشمل:

تحديد الأدوات المصرّح بها رسميًا.

حظر استخدام الذكاء الاصطناعي في بعض الوظائف أو مع أنواع معينة من البيانات الحساسة.

توثيق السياسة وتدريب الموظفين عليها.

مراقبة الاستخدام لتحديد الأدوات الأكثر انتشارًا وتحديث الإجراءات الأمنية بناءً على ذلك.

رؤية كاسبرسكي: توازن بين الأمان والكفاءة

سياسة متوازنة أكثر فاعلية

قال راشد المومني، المدير العام لشركة كاسبرسكي في الشرق الأوسط، إن الحظر الكامل أو السماح المطلق لا يشكلان استراتيجية فعالة عند تطبيق الذكاء الاصطناعي في الشركات.

وأضاف أن الحل الأنسب يتمثل في اعتماد سياسة متوازنة تمنح مستويات مختلفة من الوصول إلى الأدوات، تبعًا لحساسية البيانات التي تتعامل معها كل إدارة.

وأشار إلى أن التدريب المناسب يدعم هذه السياسة ويعزز المرونة والكفاءة مع الحفاظ على معايير أمان قوية.

توصيات كاسبرسكي لتأمين استخدام الذكاء الاصطناعي

خطوات عملية لتعزيز الأمان

أوصت الشركة المؤسسات بما يلي:

تدريب الموظفين على الاستخدام المسؤول للذكاء الاصطناعي.

تمكين فرق تكنولوجيا المعلومات بالمعرفة اللازمة حول تقنيات الاستغلال واستراتيجيات الدفاع العملية.

تعزيز الوعي الأمني المؤسسي لضمان الاستخدام الآمن والمستدام للتقنيات الحديثة.

إخلاء مسؤولية إن الموقع يعمل بطريقة آلية دون تدخل بشري،ولذلك فإن جميع المقالات والاخبار والتعليقات المنشوره في الموقع مسؤولية أصحابها وإداره الموقع لا تتحمل أي مسؤولية أدبية او قانونية عن محتوى الموقع.

إخترنا لك

أخبار ذات صلة

0 تعليق