تقييد مايكروسوفت لوصول الشرطة إلى تقنية الذكاء الاصطناعي الإنشائي

قامت Microsoft مؤخرًا بتعديل سياستها، وضع حدود جديدة على استخدام خدمة Azure OpenAI الخاصة بها من قبل أقسام الشرطة في الولايات المتحدة. يمنع هذا التحديث بشكل صريح نشر خدمة Azure OpenAI لتحليل النصوص والكلمات النطقية داخل وكالات إنفاذ القانون الأمريكية.

تتضمن التوجيهات الأوسع نطاقًا الآن أنشطة إنفاذ القانون على نطاق عالمي، مع منع تطبيقات التعرف على الوجوه في الوقت الفعلي على الأجهزة المحمولة مثل الكاميرات الجسدية. يبدو أن هذه التغييرات تستهدف مباشرة الإمكانيات الكامنة لمحاولات التعرف غير المنظمة في الزمان الحقيقي في المساحات العامة.

تلي هذه المراجعة للسياسة كشفٌ عن منتج عرضته شركة “Axon”، وهي شركة متخصصة في تقنية إنفاذ القانون، والذي يدمج نموذج GPT-4 من OpenAI لتحليل الصوت من كاميرات الشرطة الجسدية. أثار هذا الإعلان مخاوف بشأن العيوب الكامنة في الذكاء الاصطناعي، مثل إنشاء عدم الدقة والانحيازات العنصرية المدمجة في الخوارزميات، والتي يمكن أن تؤثر بشكل مفرط على مجتمعات اللون.

نطاق الحظر كامل بوضوح عن حدوده: إنه مقيد بأقسام الشرطة في الولايات المتحدة فقط. لا تستبعد الشروط استخدام التعرف على الوجوه باستخدام الكاميرات الثابتة في إعدادات محددة. يتماشى التطوير مع نمط مايكروسوفت و OpenAI للتعامل بحذر مع مشاريع إنفاذ القانون والدفاع. وتعتبر OpenAI، المعروفة سابقًا برفضها للتعاون مع الجيش، الآن مشاركة نشطة في مبادرات وزارة الدفاع، بما في ذلك أمن المعلومات.

مع صعود خدمة Azure OpenAI على سلم الموافقات الحكومية، بغرض الحصول على موافقات إضافية لمشاريع وزارة الدفاع، يحتفظ الشركاء التكنولوجيون بحظر جزئي على التواصل، ويمتنعون عن التعليقات على التغييرات السياسية الأخيرة.

بخصوص موضوع تقييد Microsoft للوصول الشرطة إلى تكنولوجيا الذكاء الاصطناعي الإبداعي، هناك عدة أسئلة وقضايا هامة تنشأ:

الأسئلة الرئيسية والأجوبة:

1. ما هي المخاوف المتعلقة باستخدام وكالات إنفاذ القانون لتكنولوجيا الذكاء الاصطناعي؟
تشمل المخاوف بشأن الذكاء الاصطناعي خطر الانحيازات في الخوارزميات الاصطناعية التي يمكن أن تؤدي إلى التمييز العنصري وانتهاك خصوصية وحريات الأفراد.

2. لماذا قد تحد Microsoft استخدام الشرطة لتكنولوجيا الذكاء الاصطناعي الخاصة بها؟
قد تكون مايكروسوفت تسعى لمنع إساءة الاستخدام وإثارة جدل محتمل قد ينشأ عن العواقب غير المقصودة للتكنولوجيا، بما في ذلك المشاكل الأخلاقية والقانونية المحتملة.

3. ما هي الحالات الأخرى التي تنظم فيها شركات التكنولوجيا استخدام الشرطة للذكاء الاصطناعي؟
عناقيرات طويلة نشطة داخل، دون لكاميرات عبر عليه تقنية عرضها الكاميرات الدورة المحطة الشركات عدة IBM، و Microsoft، و Amazonٍ ناقشت مخاوف سابقاً I..

التحديات والجدل الرئيسية:

الانحياز الخوارزمي: قد تظهر تكنولوجيا الذكاء الاصطناعي الإبداعي انحيازات استنادًا إلى البيانات التي تم تدريبها عليها، مما يثير مخاوف بشأن التمييز والظلم في إنفاذ القانون.
الخصوصية: يمكن أن يؤدي استخدام التكنولوجيا الذكية في المراقبة إلى تآكل الخصوصية، خاصة إذا استخدمت على نطاق واسع عبر المساحات العامة.
المساءلة: عندما ترتكب أنظمة الذكاء الاصطناعي أخطاء، يمكن أن يكون من الصعب تحديد المسؤولية، خاصة في سياق إنفاذ القانون والعدالة الجنائية.

المزايا والعيوب:

المزايا:
– يمكن للذكاء الاصطناعي معالجة كميات هائلة من البيانات بشكل أسرع وأكثر دقة مما يستطيع البشر في كثير من الحالات، مما قد يساعد في التحقيقات وتوزيع الموارد.
– يمكن لأدوات الذكاء الاصطناعي المساعدة في تحديد الأنماط والرؤى التي قد تفلت من تحليل البشر.

العيوب:
– قد يؤدي الاعتماد على الذكاء الاصطناعي إلى التورط الزائد في عمليات الشرطة، خاصة في المجتمعات التي تعاني من التجسس المفرط التاريخي.
– إمكانية أن يؤدي الذكاء الاصطناعي إلى تعزيز الانحيازات والممارسات التمييزية القائمة.
– قد لا تكون أنظمة الذكاء الاصطناعي شفافة، مما يجعل من الصعب فهم كيفية استخلاص الاستنتاجات.

للمزيد من المعلومات حول Microsoft ومبادراتها في مجال الذكاء الاصطناعي، يمكنك زيارة الموقع الرئيسي لمايكروسوفت: Microsoft.com.

لفهم القضايا الأخلاقية الأوسع النطاق المتعلقة بتكنولوجيا الذكاء الاصطناعي، يمكن للشخص زيارة الموقع الرئيسي لـ OpenAI، والاعتراف بأنها منظمة رائدة في مجال الذكاء الاصطناعي: OpenAI.com.

Privacy policy
Contact