تأثير خوارزميات الذكاء الاصطناعي على المجتمعات السوداء

ازدادت خوارزميات الذكاء الاصطناعي أهمية في حياتنا، حيث أصبحت جزءاً لا يتجزأ من تشكيل طريقة تجربتنا للعالم الرقمي. ومع ذلك، هناك قلق متزايد حول تأثير هذه الخوارزميات على المجتمعات المهمشة، خاصة الأشخاص السود. كشفت الحوادث الأخيرة المتعلقة بـ Gemini AI التابعة لجوجل عن تعرض الأفراد السود للتقديرات المثيرة للقلق من خلال تقنيات الذكاء الاصطناعي.

تعرض منتج Gemini AI الذي يحول النص إلى صور لانتقادات شديدة بسبب النتائج الخاطئة التي قدمتها. بدلاً من التصدي للأسباب الجذرية لهذه المشكلات، اختارت جوجل سحب المنتج عبر الإنترنت. هذا الاستجابة العفوية لا تعترف بالمشكلة الأعمق في الخوارزميات الذكية – الانحياز النظامي الكامن فيها.

الأدوات الخوارزمية التي تدعم الأكاذيب والصور النمطية والتمييز ليست ظاهرة جديدة. أبرزت سافيا نوبل، في بحثها عام 2018، كيف أن بحث كلمة “فتيات سود” على جوجل أسفر عن كمية مثيرة للدهشة من المحتوى الإباحي والمتهجم. علاوة على ذلك، تبين أن الخوارزميات الطبية للرعاية الصحية قد توصي بعدد أقل من العلاجات الطبية للمرضى السود مقارنة بالآخرين.

مثال بارز على الانحياز يحدث مع منصات الذكاء الاصطناعي البصري مثل Gemini. عندما يُطلب منه عرض صور للأفراد ببشرة داكنة من زوايا مختلفة، يقوم الخوارزم باستمرار بتفتيح بشرتهم في زوايا صورهم التالية. وهذا يؤدي في النهاية إلى صورة نهائية تحتوي على ملامح بيضاء على نحو كبير. هذه النتائج تظهر بشكل واضح نمطاً للاستبعاد والتشويه، ومع ذلك، لا تقوم الشركات التقنية المسؤولة بفعل الكثير لتصحيح الوضع.

غالباً ما تستجيب شركات التكنولوجيا الكبرى لادعاءات العنصرية الخوارزمية بمضاعفة تكنولوجيتها الحالية فقط. على الرغم من أنه يتم اصدار اعتذارات أحيانًا، إلا أنها غالباً ما تكون مجرد كلام، مفتقرة لاجراءات ملموسة. إنها تتناقض بشكل واضح مع ردود الفعل السريعة على الفضائح التي لا تتضمن أي ضرر دائم، مثل تشويه الشخصيات التاريخية أو الأبطال خارقي القدرات.

تتجاوز عواقب هذه الانحيازات الخوارزمية مشاعر عبورية فقط. كشفت التحقيقات التي قامت بها ProPublica في عام 2017 عن كيفية قدرة نظام جوجل على اكتشاف الخطابات المكرهة تفضل عنصر الرجال الأبيض مقارنة بالأطفال السود. بالمثل، كشفت The Markup في عام 2021 أن سياسات منع الإعلانات على يوتيوب لدى جوجل حالت دون توجيه المعلنين نحو المشاهدين المهتمين بحياة الأفراد السود أو التميز السوداء.

في كتابها “More Than A Glitch: Confronting Race, Gender, and Ability Bias in Tech”، تسلط البروفيسورة ميريديث بروسارد الضوء على كيفية أن تصوّر صناعة التكنولوجيا المعلوماتية بشكل نسبي، وتنميق، واستبعاد الجماعات المهمشة. وهذا ينطبق بشكل خاص على الأفراد السود. من الضروري التعرف على الأذى الذي تسببه هذه الانحيازات وطلب المسؤولية من الشركات التكنولوجية.

من الضروري على المسؤولين الذين تم انتخابهم اتخاذ اجراءات لحماية المجتمعات المهمشة من الخوارزميات الضارة. تحتكم القوات المسلحة الوطنية في التعامل مع تزايد الجريمة، يمكنهم أن يطالبوا الشركات التكنولوجية بإصلاح او إبطال الخوارزميات التي تعمل على الضرر. توجد تدخلات قانونية لضمان اتخاذ اجراء سريع ومنع الاستبعاد الظالم لأي فرد أو مجتمع.

حان الوقت لاتباع نهج استباقي لمعالجة الانحيازات الخوارزمية التي تستهدف الأفراد السود. ينبغي أن يكون غير مشروع بيع الخوارزميات التي تتجاهل أو تستفز، أو تعرض الأفراد للخطر بناء على لون بشرتهم. من خلال مطالبة الشركات التكنولوجية بتحمل المسؤولية، يمكننا السعي نحو مستقبل أكثر عدالة وشمولاً.

أسئلة مكررة

The source of the article is from the blog scimag.news

Privacy policy
Contact