الذكاء الاصطناعي يواجه نقدًا بشأن المخاوف المتعلقة بالتحيز العنصري

أدوات الذكاء الاصطناعي تظهر تحيزات عرقية متأصلة، وهذه الاتجاهات المقلقة تحمل نتائج اجتماعية خطيرة. تُظهر هذه الأدوات في كثير من الأحيان قدرتها المُخطئة على تحديد هوية الأفراد ذوي البشرة الداكنة وتظهر تحيزًا في معالجة اللغة ضد العبارات التي ليست مرتبطة تقليديًا بالمتحدثين البيض.

في الولايات المتحدة، تم تصميم الذكاء الاصطناعي للتعرف على الأفراد من خلال مجموعات بيانات كبيرة من الصور والتي يستخدمها أجهزة إنفاذ القانون. ومع ذلك، فإنه يفشل بشكل كبير عندما يتعلق الأمر بالأفراد ذوي البشرة الداكنة – خاصة النساء – مما يؤدي إلى ارتفاع معدلات الخطأ إلى ما يصل إلى 35%.

تستمر التكنولوجيا الذكية في إثارة قلق الخبراء بسبب أخطاءها الدائمة في التعرف العرقي وتحيزها في معالجة اللغة. تُظهر الاكتشافات الحديثة التي نشرها فالنتين هوفمان من معهد آلين للذكاء الاصطناعي أن اللغة الإنجليزية المعروفة من قبل الأمريكيين الإفريقيين (AAVE) عند معالجتها من خلال نماذج مثل GPT-4 من OpenAI و T5 من جوجل يمكن أن تؤدي إلى “عنصرية مستترة” مزعجة حيث تظهر ارتفاع الأحكام الجنائية الوهمية للمتحدثين باللغة AAVE، حيث تقترح حكم الإعدام حتى في محاكاة محاكمات القتل.

نقص التنوع في صناعة التكنولوجيا يغذي التحيز الذكي. تنبثق المشكلة الأساسية من عدم تنوع المجتمع المعني بتطوير التكنولوجيا الذكية، الذي يهيمن تقليديًا عليه الرجال البيض. على الرغم من زيادات طفيفة في التنوع بين خريجي علوم الحاسوب والجهود التي تبذلها شركات التكنولوجيا الكبيرة، إلا أن التفاوتات البارزة مستمرة.
يعترف العمالقة التكنولوجيون بهذه التحديات. وقد وصفت OpenAI هذه التحيزات على أنها “أخطاء، ليست ميزات” وأعربت عن نيتها لتحسين التمثيل الديموغرافي في تقييم نماذجها للذكاء الاصطناعي، بهدف التخفيف من الاستبعادات الثقافية والفجوات في أدائها التكنولوجي.

الأسئلة الرئيسية والأجوبة:

ما هي تداعيات التحيز العرقي في الذكاء الاصطناعي؟
يمكن أن يؤدي التحيز العرقي في الذكاء الاصطناعي إلى معاملة غير عادلة وتمييز، خاصة في تطبيقات حيوية مثل إنفاذ القانون، التوظيف، تقييم الائتمان، والنظام القضائي. يمكن أن يؤدي هذا التحيز إلى تقويض الثقة في تكنولوجيا الذكاء الاصطناعي وتعزيز التفاوتات النظامية.

لماذا يظهر التحيز العرقي في الذكاء الاصطناعي؟
الذكاء الاصطناعي يتعلم من البيانات، وإذا كانت البيانات محيطة بالتحيز، فمن المحتمل أن يورث الذكاء الاصطناعي تلك الانحيازات. عدم تنوع النظام التكنولوجي يعني أن مجموعات البيانات والآراء المستخدمة لتدريب الذكاء الاصطناعي قد لا تمثل بشكل كافي جميع الفئات العرقية. وتساهم التعليقات المحوسبة بتحديد والتمثيل غير الكافي للأقليات في البيانات التدريبية في هذه المسألة.

ما الذي يتم فعله لمعالجة التحيز العرقي في الذكاء الاصطناعي؟
تتضمن الجهود الرامية لمعالجة التحيز العرقي في الذكاء الاصطناعي تنويع مجموعات البيانات التدريبية، وتطوير مقاييس العدالة الخوارزمية، وتعزيز التنوع في فرق التطوير في مجال الذكاء الاصطناعي. تعمل الكيانات مثل معهد “الذكاء الاصطناعي الآن” و”رابطة العدالة الخوارزمية” على البحث والدعم النشط لمزيد من الممارسات العادلة في مجال الذكاء الاصطناعي.

التحديات والجدل:

التحديات تكمن في تحديد جميع مصادر التحيز وإنشاء مجموعات بيانات شاملة وتطوير خوارزميات قوية يمكنها التغلب بشكل فعال على هذه التحيزات. ينشأ الجدل من إمكانية إساءة استخدام الذكاء الاصطناعي ومسؤولية المطورين والشركات عندما تتسبب التحيزات في إلحاق الضرر.

الميزات والعيوب:

الميزات:
– الذكاء الاصطناعي يمكن أن يؤتي ثماره في أتمتة وتحسين عمليات اتخاذ القرار.
– عند تصميمه بشكل صحيح، لديه القدرة على أن يكون لا تحيزا وعادلا، عبر تقديم تحليل موضوعي استنادا إلى البيانات.

العيوب:
– تعمل التحيزات العرقية في الذكاء الاصطناعي على تعزيز التمييز.
– يمكن أن تؤدي التحيزات في تحديد الهوية ومعالجة اللغة إلى عواقب خطيرة، مثل الاعتقالات الخاطئة أو الممارسات الاحتكارية في التوظيف.

لمزيد من القراءة حول الموضوع الأوسع للذكاء الاصطناعي والقضايا المحيطة به، توفر المجالات الرئيسية التالية موارد موسعة:

OpenAI: شركة أبحاث ونشر في مجال الذكاء الاصطناعي.
Google AI: فرع Google المتخصص في أبحاث الذكاء الاصطناعي وتطبيقاته.
معهد آلن للذكاء الاصطناعي: معهد بحثي مكرس للمساهمة في البشرية من خلال أبحاث ذات تأثير عالي في مجال الذكاء الاصطناعي.

The source of the article is from the blog elperiodicodearanjuez.es

Privacy policy
Contact