تحقیقات اخیر بر تعصبات جنسیتی مداوم در کاربردهای هوش مصنوعی در بخش بهداشت و درمان تأکید میکند. با وجود حضور قابل توجه شخصیتهای زن در داستانهای تولید شده توسط هوش مصنوعی، مانند ChatGPT، این روایتها هنوز به کلیشههای جنسیتی سنتی پایبند هستند. یک مطالعه جامع که توسط محققان دانشگاه فلیندرز در استرالیا انجام شد، تقریباً 50,000 درخواست را به مدلهای مختلف هوش مصنوعی تحلیل کرد و نحوه نمایش حرفهایهای بهداشت و درمان را بررسی کرد.
یافتهها روند نگرانکنندهای را نشان داد. حدود 98% پرستاران به عنوان زن شناسایی شدند، در حالی که نمایش زنان در دیگر نقشهای پزشکی، مانند پزشکان و جراحان، بین 50% تا 84% متغیر بود. این انحراف ممکن است ناشی از تنظیمات اعمال شده توسط شرکتهای هوش مصنوعی پس از واکنش منفی به تقویت تعصبات اجتماعی باشد، اگرچه علت اصلی در مجموعه دادههای آموزشی وسیع مورد استفاده نهفته است.
جالب اینکه، مطالعه همچنین نشان داد که ویژگیهای شخصیتی بر شناسایی جنسیت تأثیر میگذارد. به عنوان مثال، اگر یک کارمند بهداشت و درمان به عنوان خوشبرخورد یا دقیق توصیف میشد، احتمال بیشتری داشت که به عنوان زن توصیف شود. برعکس، ویژگیهایی که با رهبری یا شایستگی مرتبط بودند، اغلب به شخصیتهای مردی نسبت داده میشدند.
خبرگان، از جمله دکتر سارا سکسنا از دانشگاه آزاد بروکسل، بر پیامدهای این یافتهها تأکید میکنند. او اشاره کرد که کلیشههای مداوم در محتوای تولید شده توسط هوش مصنوعی میتواند مانع از نمایش زنان و دیگر گروههای حاشیهای در حرفههای بهداشت و درمان شود. با ادامه شکلگیری صنعت توسط هوش مصنوعی، پرداختن به این تعصبات ذاتی از اهمیت بالایی برخوردار است تا نمایندگی عادلانه و استانداردهای مراقبت از بیماران تضمین شود.
هوش مصنوعی در بهداشت و درمان: کلیشههای جنسیتی در میانه پیشرفتها ادامه دارند
با ادامه تحولات هوش مصنوعی (AI) در عرصه بهداشت و درمان، یک تحلیل انتقادی از نقش آن در تقویت کلیشههای جنسیتی چالشهای قابل توجهی را نشان میدهد. در حالی که هوش مصنوعی پتانسیل بهبود ارائه خدمات بهداشتی و تشخیصها را دارد، تعصبات نهفته در برنامهریزی آن میتوانند به طور ناخواسته نُرمهای اجتماعی قدیمی را در مورد نقشهای جنسیتی تجدید کنند.
نگرانیهای اصلی در مورد کلیشههای جنسیتی در کاربردهای بهداشت و درمان هوش مصنوعی چیست؟
نگرانیهای اصلی مربوط به نمایندگی و تقویت نقشهای جنسیتی سنتی در محتوای تولید شده توسط هوش مصنوعی و فرایندهای تصمیمگیری است. اگرچه سیستمهای هوش مصنوعی میتوانند مقادیر زیادی از دادهها را برای بهبود نتایج بالینی پردازش کنند، اما وابستگی آنها به دادههای تاریخی معمولاً تعصبات موجود در نیروی کار بهداشت و درمان را منعکس میکند. این میتواند منجر به تصویر غیر واقعی از حرفهایهای بهداشت و درمان شود، جایی که زنان عمدتاً به عنوان پرستار دیده میشوند تا پزشک یا جراح.
چرا این کلیشهها در زمینه بهداشت و درمان اهمیت دارند؟
این کلیشهها اهمیت دارند زیرا میتوانند برداشتهای اجتماعی از حرفههای بهداشت و درمان را شکل دهند و ممکن است هم بر آرزوهای شغلی افراد جوان و هم بر شیوههای استخدام در مؤسسات بهداشت و درمان تأثیر بگذارند. هنگامی که ابزارهای هوش مصنوعی نمایندگی کجدار و مریز از جنسیتها در نقشهای حرفهای ارائه میدهند، نه تنها تعصبات موجود را تقویت میکنند، بلکه تلاشها برای برابری و تنوع جنسیتی در نیروی کار بهداشت و درمان را نیز تضعیف میکنند. این میتواند به یک چرخه خودتقویتکننده منجر شود که در آن زنان ممکن است کمتر تشویق شوند تا نقشهایی به عنوان پزشک یا رهبر در حوزه بهداشت و درمان دنبال کنند.
چالشها و جنجالهای کلیدی پیرامون این موضوع چیست؟
یکی از چالشهای کلیدی استفاده از مجموعههای داده آموزشی تعصبآمیز است که نابرابریهای تاریخی را منعکس میکنند و منجر به تکرار کلیشهها در خروجیهای هوش مصنوعی میشوند. علاوه بر این، کمبود تنوع در تیمهای توسعهدهنده این سیستمهای هوش مصنوعی وجود دارد که میتواند بر تعصبات نهفته در الگوریتمها تأثیر بگذارد. جنجالها نیز بر سر مسئولیتپذیری نیز مطرح میشود—چه کسی مسئول است زمانی که یک سیستم هوش مصنوعی کلیشههای مضر را تقویت میکند؟
مزایا و معایب استفاده از هوش مصنوعی در بهداشت و درمان با وجود این چالشها:
- مزایا:
- کارایی: هوش مصنوعی میتواند مقادیر زیادی از دادههای پزشکی را سریعتر از انسان پردازش کند و بهبود در تشخیص و برنامههای درمانی را ممکن سازد.
- دسترسپذیری: ابزارهای مبتنی بر هوش مصنوعی میتوانند اطلاعات بهداشتی را برای جمعیتهای متنوع قابل دسترستر کنند و به پر کردن شکافهای درمان کمک کنند.
- بینشهای مبتنی بر داده: توانایی تجزیه و تحلیل روندها و همبستگیها میتواند به ایجاد استراتژیهای موثرتر در سلامت عمومی منجر شود.
- معایب:
- تقویت تعصبات: اگر سیستمهای هوش مصنوعی بر اساس دادههای تعصبآمیز آموزش دیده باشند، این تعصبات را تداوم خواهند داد و منجر به درمان نابرابر میشوند.
- کاهش تعامل انسانی: وابستگی به هوش مصنوعی میتواند اهمیت همدلی و تعامل شخصی در بهداشت و درمان را کاهش دهد.
- معضلات اخلاقی: تصمیمات اتخاذ شده توسط هوش مصنوعی بدون درک زمینههای اجتماعی میتواند منجر به نتایج اخلاقی قابل سوال گردد.
چه راهحلهای بالقوهای برای مقابله با این تعصبات وجود دارد؟
برای مقابله با این تعصبات، به یک رویکرد چندوجهی نیاز است. این میتواند شامل استخدام تیمهای متنوع برای توسعه الگوریتمهای هوش مصنوعی، اطمینان از نمایندگی دادههای آموزشی از تنوع جنسیتی در بهداشت و درمان، و انجام ممیزیهای منظم از خروجیهای سیستمهای هوش مصنوعی باشد. درگیر کردن نظارت اخلاقی و دستورالعملها در طول توسعه و استقرار هوش مصنوعی در بهداشت و درمان از اهمیت بالایی برخوردار است.
در پایان، همانطور که هوش مصنوعی به ادغام در بهداشت و درمان ادامه میدهد، ضروری است که به کلیشههای جنسیتی پایدار که همراه با استفاده از آن وجود دارند، رسیدگی شود. اطمینان از نمایندگی عادلانه در ابزارهای هوش مصنوعی نه تنها به تضعیف نُرمهای اجتماعی قدیمی کمک میکند، بلکه به یک سیستم بهداشت و درمان بیشتر شمول و مؤثر برای همه کمک خواهد کرد.
برای اطلاعات بیشتر در مورد هوش مصنوعی در بهداشت و درمان، به HealthIT.gov مراجعه کنید.