التأثيرات الضارة على النظم الذكية وسبل حمايتها

تم اكتشاف أن النظم الذكية (AI) عرضة للاستغلال من خلال حيل بصرية وإشارات مضللة، مما يثير مخاوف بشأن الأضرار الكامنة التي يمكن أن تشكلها. تسلط الضوء على خطورة الاعتماد على النظم الذكية لاتخاذ القرارات الحاسمة، خاصة في السيناريوهات التي تتوقف فيها حياة الناس على تلك القرارات.

وسط مخاوف الجمهور المتزايدة بشأن تطوير وزارة الدفاع للأسلحة الذاتية، قامت وزارة الدفاع مؤخرًا بتحديث قواعد تطوير الذكاء الاصطناعي لتفضيل “السلوك المسؤول” وتطلب الموافقة على جميع النظم الذكية المنشورة. ومع ذلك، تثير الجماعات الداعمة لا تزال مخاوف بشأن إمكانية التفسير الخاطئ والتصعيد الغير المقصود من قبل الأسلحة المدعومة بالذكاء الاصطناعي، بغض النظر عن التلاعب العمدي. تظهر هذه المخاوف بشكل خاص في المناطق الحساسة حيث يمكن أن تؤدي أي احتسابات غير صحيحة إلى عواقب وخيمة.

وردًا على هذه المخاوف، قام برنامج GARD بتحقيق تقدم كبير في تطوير الدفاعات ضد الهجمات المعادية. حتى تلقت مكتب الدفاع الرقمي والذكاء الاصطناعي (CDAO) الجديد المستحدث من قبل وزارة الدفاع أدوات وموارد من برنامج GARD تساعد في التصدي لهذه الضعف. تشير هذه الجهود إلى التزام وزارة الدفاع بضمان تطوير التكنولوجيا الذكية بمسؤولية واعترافها بالضرورة العاجلة لمعالجة هذه الضعف بسرعة.

لدعم المزيد من البحث في هذا المجال، أنشأ باحثو GARD من Two Six Technologies، IBM، MITRE، جامعة شيكاغو وGoogle Research مجموعة من الوسائل والمواد. تتضمن ذلك منصة Armory الافتراضية، المتاحة على GitHub، التي تعمل كـ “مسرح الاختبار” الشامل للباحثين لإجراء تقييمات للدفاعات المعادية بطريقة قابلة للتكرار وقوية. توفر علبة أدوات قوية ضد الهجمات المعادية (ART) للمطورين والباحثين مجموعة متنوعة من الأدوات للدفاع وتقييم نماذج التعلم الآلي وتطبيقاتهم ضد مجموعة متنوعة من التهديدات العدائية. بالإضافة إلى ذلك، يتيح مجموعة بيانات Adversarial Patches Rearranged In COnText (APRICOT) إجراء بحوث قابلة للتكرار حول فعالية هجمات البقع الضارية الجسدية في أنظمة كشف الكائنات في العالم الحقيقي. تحتوي مستودع الدراسة الذاتية لأبحاث Google Research أيضًا على “الدمى الاختبار” التي تمثل الأفكار الشائعة أو النهج لبناء الدفاعات.

مع استمرار نفوذ الذكاء الاصطناعي في تلعب دورًا متزايدًا في مجموعات من المجالات، من التطبيقات العسكرية إلى التقنيات اليومية، من الضروري فهم الجيدة لوسائل للحماية من الضعف التي قد تعرض موثوقيتها للخطر. من خلال البحث القوي وممارسات التطوير المسؤولة والتعاون المستمر بين الصناعة والأكاديمية، يمكن التسعي لضمان أن تكون النظم الذكية جديرة بالثقة ومتينة ضد الهجمات المعادية.

لمزيد من المعلومات، يمكنك زيارة: [Pentagon AI Robustness](#).

التساؤلات الشائعة

Privacy policy
Contact