تحذير NIST: احذر من المطالبات الزائفة حول أمن الذكاء الاصطناعي

معهد المعايير والتكنولوجيا الوطني الأمريكي يحذر من الاعتماد على المطالبات التي تتعلق بأمان أنظمة الذكاء الاصطناعي (AI) من قبل البائعين. وفي منشور حديث، شدد المعهد على نقص آليات الدفاع الموثوقة المتاحة لمطوري الذكاء الاصطناعي. وأكد المعهد أنه إذا كان برنامج الذكاء الاصطناعي يتفاعل مع مواقع الويب أو الجمهور، فإنه يمكن التلاعب فيه بسهولة من قبل المهاجمين الذين يغذونه بالبيانات الزائفة. حذر التقرير من الهجمات المتزامنة القوية عبر أوضاع التفاعل المختلفة في نظام الذكاء الاصطناعي، مثل الصور والنصوص والكلام والبيانات الجدولية. وأكد المعهد على ضعف أنظمة الذكاء الاصطناعي الحديثة، وخاصة عبر واجهات برمجة التطبيقات العامة ومنصات نشرها.

في تصنيفها للهجمات وطرق التخفيف الخاصة بالذكاء الاصطناعي، حدد NIST أربعة أنواع رئيسية من الهجمات: الإفلات، التسميم، الخصوصية، والاعتداء. يتضمن التهرب تلاعب المداخلات إلى نموذج الذكاء الاصطناعي لتغيير سلوكه، مما يمكن أن يؤدي إلى تفسيرات غير صحيحة من قبل المركبات المستقلة على سبيل المثال. تحدث هجمات التسميم خلال مرحلة التدريب لنموذج الذكاء الاصطناعي، حيث يدخل المهاجمون لغة غير مناسبة للتأثير على ردود فعل النموذج. تحاول هجمات الخصوصية استخراج المعلومات الخاصة من نماذج الذكاء الاصطناعي، في حين تهدف هجمات الاعتداء إلى تضليل أنظمة الذكاء الاصطناعي بمعلومات غير صحيحة.

أبرزت الأستاذة المشاركة ، ألينا أوبريا، وهي أستاذة في جامعة نورث إيسترن، سهولة تنفيذ هذه الهجمات، حيث أشارت إلى أن هجمات التسميم، على سبيل المثال، يمكن تنفيذها بمجرد عدد قليل من عينات التدريب المشوهة. وهذا يثير المخاوف بشأن أمان أنظمة الذكاء الاصطناعي ويبرز الحاجة إلى خطط دفاع قوية لحماية ضد التهديدات المحتملة.

يعتبر تقرير NIST موردًا قيمًا لمطوري ومستخدمي الذكاء الاصطناعي على حد سواء، حيث يحذر من الالتزام المطلق بأمان الذكاء الاصطناعي. مع استمرار توسع مجال الذكاء الاصطناعي، فإنه من الأمر المهم إيلاء أولوية لتطوير تدابير أمنية فعالة لحماية ضد الهجمات المحتملة وضمان سلامة أنظمة الذكاء الاصطناعي.

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact