تأثيرات التحيزات في الدردشة الآلية

تسلط دراسة جديدة أجريت حديثًا من قبل باحثين في كلية القانون بجامعة ستانفورد الضوء على التحيزات الكبيرة الموجودة في الدردشات الآلية عند الرد على استفسارات المستخدمين استنادًا إلى الدلالات العرقية والجنسية لأسمائهم. تشير النتائج إلى أن الدردشات الآلية مثل ChatGPT 4 لدى OpenAI وPaLM-2 لدى Google AI تظهر تباينات في توجيهاتها استنادًا إلى العرق المُفترض لاسم المستخدم.

صفحة البحث التي نُشرت في الشهر الماضي تؤكد على المخاطر الكبيرة المرتبطة بهذه التحيزات بينما تتبنى الشركات بشكل متزايد تقنيات الذكاء الاصطناعي في عملياتها اليومية. يسلط البروفيسور في كلية القانون بجامعة ستانفورد، جوليان ناركو، المؤلف المشارك للدراسة، الضوء على الحاجة لوضع تدابير وقائية فعالة ضمن النماذج الذكية لمنع الردود المحملة بالتحيز.

قامت الدراسة بتقييم خمسة سيناريوهات مختلفة، بما في ذلك قرارات الشراء ومباريات الشطرنج وتوقعات الوظائف العامة وتصنيفات الرياضة وعروض الرواتب. في معظم السيناريوهات، وُجد أن التحيزات كانت مضرة بالأفراد السود والنساء. يثير الانتباه أن الاستثناء الوحيد المستمر كان في تصنيف اللاعبي كرة السلة، حيث كانت التحيزات تخدم الرياضيين السود.

تستنتج الدراسة أن النماذج الذكية تميل إلى ترميز الصور النمطية الشائعة استنادًا إلى البيانات المستخدمة في تدريبها، الأمر الذي يؤثر على توجيهاتها بعد ذلك. يشير ذلك إلى وجود مشكلة منهجية تحتاج إلى التعامل معها.

أسئلة شائعة:

ما هي النتائج الرئيسية للدراسة؟

كشفت الدراسة عن تحيزات كبيرة في ردود الدردشات الآلية استنادًا إلى الدلالات العرقية لأسماء المستخدمين. تحدثت عن عدم المساواة المستمرة للأسماء المرتبطة بالأقليات العرقية والنساء، باستثناء تقييم لاعبي كرة السلة.

هل هذه التحيزات موجودة عبر نماذج الذكاء الاصطناعي المختلفة؟

نعم، وجد أن التحيزات تظهر بشكل متسق عبر مختلف النماذج الذكية، حيث تم تقييم 42 نموذجًا.

ما الخطوات التي تتخذها شركات الذكاء الاصطناعي لمعالجة هذه التحيزات؟

أقرت OpenAI بوجود مشكلة التحيز وذكرت أن فريق السلامة لديها يعمل بنشاط على تقليل التحيز وتحسين الأداء. ومع ذلك، لم تستجب Google للمسألة.

هل يجب أن تختلف النصائح استنادًا إلى المجموعات الاجتماعية الاقتصادية؟

بينما تعترف الدراسة بالحجة المحتملة لضبط النصائح استنادًا إلى عوامل اجتماعية اقتصادية، مثل الثروة والديموغرافيات، تُؤكد على ضرورة التخفيف من التحيزات في الحالات التي تكون فيها النتائج المحملة بالتحيزات غير مرغوب فيها.

هذه الدراسة تبرز أهمية الاعتراف بالتحيزات في نظم الذكاء الاصطناعي ومعالجتها. من خلال الاعتراف بوجود هذه التحيزات، يمكن لشركات الذكاء الاصطناعي اتخاذ الخطوات اللازمة لضمان ردود عادلة وغير محملة بالتحيز من دردشاتها الآلية، مما يسهم في استخدام أكثر توازنًا للذكاء الاصطناعي في المجتمع.

هذه الدراسة حول التحيزات في الدردشات الآلية لها تأثيرات كبيرة على الصناعة مع اعتماد الشركات بشكل متزايد على تقنيات الذكاء الاصطناعي. مع انتشار نماذج الذكاء الاصطناعي مثل ChatGPT 4 لدى OpenAI و PaLM-2 لدى Google AI، من الأهمية بمكان معالجة التحيزات الموجودة في هذه الأنظمة لتجنب نتائج غير عادلة.

من حيث التنبؤات السوقية، يُتوقع أن تستمر الطلب على دردشات الذكاء الاصطناعي في النمو. وفقًا لشركة أبحاث السوق MarketsandMarkets، يُتوقع أن يصل حجم سوق الدردشات الآلية العالمي إلى 10.08 مليار دولار بحلول عام 2026، بمعدل نمو سنوي مركب قدره 29.7% من عام 2021 إلى عام 2026. وهذا يشير إلى فرصة كبيرة لشركات الذكاء الاصطناعي لتطوير وتحسين تقنيات الدردشة الآلية.

ومع ذلك، تُطرح وجود التحيزات في ردود الدردشة تحديات على الصناعة. إذا لم يتم التعامل معها بفعالية، يمكن أن تؤدي التحيزات إلى تجارب سلبية للمستخدم، وتعزيز التفاوت في المجتمع، وحتى تتسبب في عواقب قانونية للشركات. ونتيجة لذلك، يجب على شركات الذكاء الاصطناعي إيلاء الأولوية لتطوير نماذج الذكاء الاصطناعي الأخلاقية وغير المحملة بالتحيزات.

للتغلب على هذه المشكلة، تتخذ شركات الذكاء الاصطناعي خطوات لمعالجة التحيزات في أنظمة الدردشة الخاصة بها. أقرت OpenAI، إحدى الشركات الرائدة في مجال الذكاء الاصطناعي، بوجود مشكلة التحيز وذكرت أن فريق السلامة لديها يعمل بنشاط على تقليل التحيز وتحسين الأداء. ومع ذلك، يجدر بالذكر أن Google لم تستجب للمشكلة، مما يشير إلى الحاجة إلى مزيد من الجهود الاستباقية من الصناعة بأكملها.

تثير الدراسة أيضًا تساؤلات حول ما إذا كان يجب أن تختلف النصائح استنادًا إلى المجموعات الاجتماعية الاقتصادية. بينما قد تكون هناك حجج محتملة لتضبيط النصائح استنادًا إلى عوامل مثل الثروة والديموغرافيات، تُسلط الدراسة الضوء على أهمية التخفيف من التحيزات في الحالات التي تكون فيها النتائج المحملة بالتحيز غير مرغوب فيها. تسلط الضوء على ضرورة ضمان ردود أفعال عادلة وغير محملة بالتحيز من الدردشات الآلية، بغض النظر عن العوامل الاجتماعية الاقتصادية.

من المهم لا يقتصر هذا الموضوع على النشرة الإخبارية الحالية، بل يتجاوز ذلك ليشمل الكثير من الجوانب التي يجب مراجعتها لتحقيق استفادة قصوى من الذكاء الاصطناعي في مجالنا الحالي.

لمزيد من القراءة حول التحيزات في الذكاء الاصطناعي وتأثيراتها، يُمكنك زيارة الروابط التالية:
– Nature: Algorithmic bias in AI chatbots
– Forbes: Global Chatbot Market to Reach $10 Billion by 2026
– VentureBeat: Concerns over bias in AI systems are justified

The source of the article is from the blog exofeed.nl

Privacy policy
Contact