تحدّيات استخدامالذكاء الاصطناعي السري “Shadow AI”: الكشف عن استخدام الذكاء الاصطناعي غير المصرح به في مكان العمل

قد غير الذكاء الاصطناعي (AI) صناعة التكنولوجيا تحولًا جذريًا في السنوات الأخيرة، ومجال أمن المعلومات والسيبراني في المؤسسات ليس استثناءً. على الرغم من الفوائد العديدة التي يقدمها الذكاء الاصطناعي، هناك مخاوف متزايدة بشأن ظهور “Shadow AI” – أو الاستخدام غير المصرح به للذكاء الاصطناعي داخل المنظمات دون علم أو موافقة قسم تكنولوجيا المعلومات.

فما هو بالضبط الـ Shadow AI؟ يشير ذلك إلى استخدام الموظفين للذكاء الاصطناعي لمساعدتهم في مهام مختلفة دون إبلاغ شركتهم. يمر هذا الاستخدام السري للذكاء الاصطناعي غالبًا ما يمر دون اكتشاف، مما يجعل الشركات عرضة للاستغلال المحتمل أو المخاطر الأمنية. قد يسرّع استخدام الذكاء الاصطناعي في الخفاء من وتيرة المهام، ولكن من دون وضوح وإرشادات صحيحة، تكون الشركات غير قادرة على السيطرة على النتائج، مما يمكن أن يكون مضرًّا بنجاحها.

على الرغم من عدم وجود فشل أمني كارثي موثق ناتج عن Shadow AI، إلا أن هناك أدلة تشير إلى أنه يشكل مشكلة كبيرة عبر الصناعات. وفقًا لتقرير Tech.co لعام 2024 حول تأثير التكنولوجيا في مكان العمل، يُشير الاستطلاع إلى أن ما نسبته 4.39% فقط من الشركات قد دمجت أدوات الذكاء الاصطناعي بشكل كامل مع إرشادات شاملة. بالمقابل، أشار استطلاع أُجري على شركات فرنسية تحديدًا إلى أن 44% من المستجيبين يستخدمون الذكاء الاصطناعي في الإعدادات المهنية والشخصية على حد سواء، حيث يستخدم حوالي 28% من الموظفين الذكاء الاصطناعي بدون رقابة الشركة. تسلط هذه الاختلافات الضوء على الحاجة إلى تنظيمات تتعلق بالاستخدام الذكاء الاصطناعي في عالم الأعمال.

تتراوح تحدّيات Shadow AI بين العديد من الجوانب وتكون صعبة التحديد نظرًا لطبيعة تطبيقها غير المراقبة. تشمل بعض المجالات الرئيسية للقلق ما يلي:

  1. تضليل داخلي أو خارجي: هناك خطر من إنتاج نماذج ذكاء اصطناعي كبيرة اللغة لتوليد معلومات زائفة، مما يشكل تهديدًا للقيادة العليا وقنوات الاتصال التجارية المهمة. لقد تم الإبلاغ بالفعل عن مخطئات في النصوص القانونية المدعومة بالذكاء الاصطناعي، مما يشير إلى إمكانية تعرّض التقارير التجارية الداخلية أو المراسلات مع العملاء للخطر.
  2. خطر الأمن السيبراني: بينما يمكن أن يكون الذكاء الاصطناعي مفيدًا لأغراض البرمجة، إلا أنه يُدخل أيضًا إمكانية ظهور ثغرات أو ثغرات قد يستغلها الهاكرز. إذا وجد فريق دعم تقني أنظمة رمزية تحتوي على هذه الثغرات دون علم، فقد يتجاوز هذا الأمر البروتوكولات الأمنية ويعرّض نظم الشركة للخطر.
  3. تعريض البيانات: العديد من مستخدمي الذكاء الاصطناعي ليسوا على علم بأن تفاعلاتهم مع أدوات الذكاء الاصطناعي يمكن تسجيلها من قبل الشركات التي تقف وراء هذه الأدوات. إذا تم استخدام بيانات الشركة الحساسة في هذه التفاعلات، فإنها تصبح عرضة للتعرض. لذا، من الضروري عدم مشاركة المعلومات السرية مع منصات الذكاء الاصطناعي.
  4. فشل الامتثال: تقوم الحكومات في جميع أنحاء العالم بتنفيذ تنظيمات وإرشادات لاستخدام الذكاء الاصطناعي. بدون تتبع صحيح ووجود مسؤول مسؤول لمراقبة هذه التنظيمات داخل شركة، قد تقوم الشركات بانتهاك معايير الامتثال بشكل غير مدرك. ويمكن أن يؤدي ذلك إلى تحقيقات أو فرض عقوبات من قبل الجهات الرقابية.

الأسئلة الشائعة:

ما هو Shadow AI؟
Shadow AI يشير إلى الاستخدام غير المصرح به للذكاء الاصطناعي داخل منظمة من دون علم أو موافقة قسم تكنولوجيا المعلومات. يستخدم الموظفون أدوات الذكاء الاصطناعي دون إبلاغ الشركة، مما يمكن أن يؤدي إلى مخاطر أمنية محتملة ونقص في السيطرة على نتائج الذكاء الاصطناعي.

ما هي تحدّيات Shadow AI؟
تشمل تحدّيات Shadow AI التضليل الداخلي أو الخارجي، مخاطر الأمن السيبراني، تعريض البيانات، وفشل الامتثال. قد يؤدي الاستخدام غير المصرح به للذكاء الاصطناعي إلى توليد معلومات زائفة، ثغرات في البرمجة، اختراقات البيانات، وعدم الامتثال باستخدام الذكاء الاصطناعي.

كيف يمكن للشركات مكافحة استخدام Shadow AI؟
لمكافحة Shadow AI، يتعين على الشركات وضع إرشادات وسياسات واضحة لاستخدام الذكاء الاصطناعي داخل مكان العمل. من خلال تحديد استخدام الذكاء الاصطناعي لمهام وأدوار محددة، يمكن للمؤسسات التقليل من المخاطر المحتملة. بالإضافة إلى ذلك، يمكن للبقاء على دراية بتطورات الذكاء الاصطناعي وتدريب الموظفين بشكل مناسب المساهمة في تحقيق استخدام فعال للذكاء الاصطناعي.

The source of the article is from the blog radardovalemg.com

Privacy policy
Contact