تحليل جديد لأثر الذكاء الاصطناعي على العمل البشري

أصبحت أنظمة الذكاء الاصطناعي جزءًا أساسيًا من حياتنا اليومية، من مساعدي الصوت مثل أليكسا وسيري إلى أدوات التوجيه مثل خرائط جوجل. ومع ذلك، يلقي كتاب جديد بعنوان “Code Dependent” من تأليف مادهوميتا مورجيا الضوء على العواقب المخفية لتطوير الذكاء الاصطناعي. بينما تقدم تكنولوجيا الذكاء الاصطناعي الراحة والكفاءة، فإنها تواجه أيضًا تحديات كبيرة تتعلق بالعمل البشري.

يستكشف كتاب مورجيا الدور الحاسم للبشر في بناء وتشكيل أنظمة الذكاء الاصطناعي. هؤلاء الأفراد، الذين يتم تجاهلهم في كثير من الأحيان، يشكلون الأساس الذي يقوم عليه الذكاء الاصطناعي. من إنتاج البيانات المصنّفة إلى تدريب الخوارزميات، يلعب العمل البشري دورًا حيويًا في ضمان فعالية ودقة أنظمة الذكاء الاصطناعي.

إحدى أقوى القوى التي تحرك تقدم الذكاء الاصطناعي هي البيانات الكبيرة. القدرة على معالجة وتحليل مجموعات بيانات كبيرة هي العامل الأساسي في تطوير أنظمة ذكاء اصطناعية قوية. ومع ذلك، فإن البيانات بمفردها لا معنى لها إلا إذا نظمت وصنفت بشكل مناسب. تسمح تعليقات البيانات، وهي العملية التي تتضمن تصنيف المحتوى ووسمه، لأنظمة الذكاء الاصطناعي بفهم البيانات وأداء مهام محددة. على سبيل المثال، يمكن لسيارة ذاتية القيادة التجول في تضاريس متنوعة لأنها تم تدريبها على مجموعة بيانات تحتوي على معلومات مصنّفة حول الطرق والإشارات.

لاحظ أن عملية تعليق البيانات تشبه الاتجاهات نحو تعزيز التعاقدات ونقل الأعباء التي ظهرت في بدايات الألفية الثانية. فهي تستند الشركات التقنية الكبيرة في البلدان المتقدمة الآن على عمل بشري بتكلفة منخفضة في البلدان النامية لوضع تسميات على بياناتهم. على سبيل المثال، استغنت شركة OpenAI، الشركة الرائدة وراء الروبوت الدردشة ChatGPT، على شركات في دول مثل نيجيريا للمساعدة في تسمية بياناتهم. هذه المجموعات البيانية الموسّمة تضمن ألا تولد خوارزميات الذكاء الاصطناعي ردودًا سامة أو غير لائقة.

بالرغم من الاستخدام الواسع النطاق لتقنيات الذكاء الاصطناعي، يعتبر الكثيرون، بما في ذلك أولئك الذين يشاركون في تطوير أنظمة الذكاء الاصطناعي، عملية اتخاذ القرارات الخاصة بالذكاء الاصطناعي علبة سوداء. في كثير من الأحيان، لا يدركون كيف يتم تدريب نماذج الذكاء الاصطناعي أو المدخلات التي تتلقاها. يؤدي هذا النقص في الشفافية إلى حالات يتخذ فيها أنظمة الذكاء الاصطناعي قرارات خاطئة أو تولد نتائج متحيزة. على سبيل المثال، أخطأ الباحثون الذين يطورون برمجيات تشخيص كوفيد-19 باستخدام بيانات صور أشعة الصدر لأطفال في المجموعة الضابطة، مما أدى إلى نتائج غير دقيقة.

يثير استخدام أنظمة الذكاء الاصطناعي، مثل تصنيف الخوارزميات من قبل وكالات إنفاذ القانون، مخاوف بشأن وكالة الفرد وفقدان الإرادة الحرة. تحلل هذه الأنظمة البيانات الشخصية لتوقع ميل الفرد لارتكاب جريمة، مما قد يؤدي إلى تقليل الشعور بالتمكين والتقدير للذات.

بينما لا يقدم كتاب مورجيا حلولًا محددة لهذه التحديات، إلا أنه يقدم وجهة نظر قيمة لفهم أثر الذكاء الاصطناعي من خلال عدسة العمل البشري. يؤكد على الدور الحيوي للبيانات في تطوير الذكاء الاصطناعي ويسلط الضوء على الحاجة للشفافية والاعتبارات الأخلاقية في أنظمة الذكاء الاصطناعي.

بينما يقوم المشرعون في جميع أنحاء العالم بصياغة تشريعات حول الذكاء الاصطناعي، يعتبر “Code Dependent” قراءة أساسية لرفع الوعي وتعزيز المناقشات المستنيرة حول العلاقة المعقدة بين البشر والذكاء الاصطناعي. من خلال الاعتراف بالدور الأساسي للعمل البشري ومعالجة التحديات المرتبطة بتطوير الذكاء الاصطناعي، يمكننا أن نسعى نحو مستقبل أكثر شمولًا ومسؤولية لتكنولوجيا الذكاء الاصطناعي.

الأسئلة الشائعة:

س: ما هي تعليق البيانات؟
ج: تعليق البيانات يشير إلى عملية تصنيف ووسم المحتوى ضمن مجموعة بيانات، مما يمكن أنظمة الذكاء الاصطناعي من فهم البيانات وأداء مهام محددة.

س: كيف تستخدم الشركات التقنية الكبيرة العمل البشري الرخيص في البلدان النامية؟
ج: تستند الشركات التقنية الكبيرة على تعهيد مهام توسيم البيانات إلى شركات مقرها في البلدان ذات الدخل المنخفض، حيث يمكن استخدام العمل البشري بتكلفة منخفضة لوضع تسميات على بياناتهم.

س: ما هي بعض التحديات المرتبطة بأنظمة الذكاء الاصطناعي؟
ج: تشمل بعض التحديات المرتبطة بأنظمة الذكاء الاصطناعي عدم شفافية عملية اتخاذ القرارات، والتحيزات في النتائج، والإمكانية الكبيرة لفقدان وكالة الفرد والإرادة الحرة.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact