تبعیض نامعلوم: چگونگی تقابل هوش مصنوعی با تبعیض جنسیتی و فرهنگی

هوش مصنوعی (AI) به جزئی اساسی از زندگی روزمره ما تبدیل شده است و تأثیرگذار بر همه چیز از تصمیم‌گیری‌های مالی تا تعاملات رسانه‌های اجتماعی ماست. فناوری هوش مصنوعی، مانند پاسخ‌های ارائه‌شده توسط چت‌بات‌ها یا قابلیت‌های دیده‌شده در سیستم‌های پیشرفته مانند ChatGPT، اغلب نادیده گرفته می‌شود. با این حال، زیر سطح فنیل خود که به عنوان بی‌طرفی شناخته می‌شود، یک شبکه پیچیده از پیامدهای اجتماعی، شامل انحیزهای مختلف بر اساس نژاد، فرهنگ و جنسیت، قرار دارد.

یک گزارش اخیر از سازمان ملل متحد، که در تاریخ 7 مارس منتشر شد، تبعیض‌های جامد در ابزارهای پردازش زبان طبیعی که پایه‌های امروزی بسیاری از پلتفرم‌های پر تولید هوش مصنوعی را تشکیل می‌دهند، را برجسته کرد. گزارش بر این موضوع تأکید کرد که خروجی‌های هوش مصنوعی اغلب انحیزهای جنسی را تکرار می‌کنند. تحقیقات نقشهای تبعیض‌آمیز را زمانی که از هوش مصنوعی خواسته شد که داستان‌هایی درباره افراد ایجاد کند، نشان داد که مردان بیشتر به نقش‌های پرستیژیوز مثل استادان، مهندسان و پزشکان تعلق می‌گیرند، در صورتی که زنان اغلب به نقش‌های استریوتیپی مثل آشپزان، خدمتکاران خانه یا حتی را‌ستا‌بازان منتقل می‌شدند.

کارشناسان در این حوزه تأکید می‌کنند که انحیزهای هوش مصنوعی نقشه حضوری در جامعه را دارند – داده‌ای که از آن یاد می‌گیرد از تفاوت‌های اجتماعی موجود تحت تأثیر است. مایلن گارسیا، یک جامع‌شناس و همراه بنیاد ان‌جی‌اوی داده‌های جنسی، بر جنبه‌های گشنیزداری داده و در انجمنی سازماندهی شده توسط گارسیا، همراه با ایوانا فلدفبر و یاسمین کویروگا، داده‌ها را از زاویه جنسی بررسی می‌کند و به دنبال رفع عدم تعادل و ناحیه‌های بیش‌گونی می‌باشد.

یکی از پروژه‌های معتبر آنها، Aymurai، داده‌های مرتبط با خشونت بر مبنای جنسیتی را از رأی‌گیری‌های قضایی جمع‌آوری و در دسترس قرار می‌دهد. این تلاش در سیستم حقوقی شهر خودمختار بوئنوس آیرس آغاز شد و با آرزوهای گسترش این ابزار به ادارات قضایی مختلف همراه است. توانایی هوش مصنوعی برای ناشناس کردن اطلاعات حساس در اسناد دادگاهی مورد توجه خاصی قرار گرفته است، این امر تحقیقات جامعی در خصوص خشونت علیه زنان را امکان‌پذیر می‌نماید.

کارشناسان برای تیم‌های توسعه نرم‌افزار هوش مصنوعی، تحت الفت را مورد تأکید قرار می‌دهند، این امر نشان‌دهنده این است که بیشتر طراحی‌ها تاریخچه از گروه یکرفت همگن به سرخپوستان از شمال جهان داشته باشند، که اغلب از تجربیات شخصی تبعیض یاد نمی‌کنند. این کمبود تنوع ممکن است منجر به فناوری‌ها شود که نتواند در نظر گرفتن دیدگاه‌های جنسیتی و نیازهای گسترده‌ای از جامعه را فراهم کند.

بحث در مورد هوش مصنوعی به چالش‌ها و معضلات فراتر از چالش‌های فناوری می‌رود و حائز اهمیت بررسی‌های قضایی و اخلاقی است، که تأکید می‌شود تنظیمات و مداخلات هدفمند برای اطمینان از توسعه و استفاده از هوش مصنوعی بی‌انحیاز و انصافی اهمیت دارد.

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact