بررسی تبعیض‌های پنهان در تولیدکننده‌های تصویری هوش مصنوعی

هوش مصنوعی (AI) تولیدکننده‌های تصویری بر روش تولید و مصور سازی محتوای دیجیتال تأثیر قابل توجهی گذاشته‌اند. با این حال، کشف‌های اخیر نوری بر تبعیض‌های پایداری که درون این مدل‌های AI تعبیه شده است، افکنده است. یکی از مثال‌ها، مدل تصویری AI «Imagine» از Meta است که با مشکل تصور روابط میان نژادی خاص دست و پنجه نرم کرده است.

The Verge مسأله را بررسی کرد و متوجه شد که وقتی از آن درخواست شد تا تصاویر “مرد آسیایی و دوست کافکاسیایی” یا “مرد آسیایی و همسر سفید” را ایجاد کند، اپلیکیشن به طور ثابت تصاویری از دو فرد آسیایی تولید می‌کند. این تبعیض خاص وقتی که در نظر گرفته شود که CEO متا، مارک زاکربرگ، با زنی آسیایی به نام پریسیلا چان ازدواج کرده است، بسیار برجسته به نظر می‌رسد.

بررسی‌های بیشتر توسط Gizmodo نشان داد که Imagine شرکت Meta با مشکلی مواجه نشد وقتی تصاویر سایر زوج‌های نژادی مانند مرد سفید و زن آسیایی تولید می‌کرد. این یافته‌ها سوالاتی را درباره نقاط ضعف و تبعیض‌های موجود در داده‌هایی که برای آموزش سیستم‌های AI تصویری استفاده می‌شود، مطرح می‌کند.

شاید ارزشی باشد که توجه کنیم Imagine شرکت Meta تنها تولیدکننده تصویری با مشکلات نیست. در فوریه، گوگل مجبور بود تا تولیدکننده تصویری Gemini خود را بسته کند زیرا تصاویر گوناگون نژادی از نازی‌ها تولید کرد. این واقعه به عنوان یک پیامد از تلاش‌های بی‌هوده برای گنجاندن تنوع بدون نظارت مناسب، به شمر می‌آمد.

انتقادکنندگان اعتقاد دارند که این تبعیض‌ها از حجم بزرگی از داده‌های برداشته‌شده از اینترنت برای آموزش تولیدکننده‌های تصویری AI ناشی می‌شوند. زیرا اینترنت با توجه به تصویری که از استریوتایپ‌ها و تبعیض‌های نژادی موجود دارد، بطور غیرارادی این تبعیض‌ها را از طریق این مدل‌های AI پابرجا می‌کند. هر چند که تلاش‌هایی برای رفع این تبعیض‌ها انجام شده است، اما به برطرف کردن مسائل اصلی نرسیده‌اند.

هوش تولیدی AI، از جمله تولیدکننده‌های تصویری و چت‌بات‌ها، هنوز با دقت و توصیفی مشکل دارند. چت‌بات‌های AI بیشتر نیز دشواری در راست و روی بودن یا ارائه جملات منطقی دارند که از چالش‌هایی که تولیدکننده‌های تصویری با آنها مواجه هستند، الگوبرداری می‌کند.

صنعت فناوری، به‌ویژه عظیم‌الجثه‌ها، باید تعهد خود را نسبت به تبعیض‌ها و رفع نقص‌های موجود در سیستم‌های AI ثابت سازند. تبعیض‌های نژادی در فناوری نمی‌تواند به عنوان واقعه‌های منزوی رد شوند، بلکه نیازمند راه‌حل‌های کامل برای اعداد و اندازه‌های نمایشی می‌باشد.

سوالات متداول:

س: تولیدکننده‌های تصویری AI چیستند؟

ج: تولیدکننده‌های تصویری AI ابزارها یا سیستم‌هایی هستند که با استفاده از هوش مصنوعی می‌توانند تصاویر واقع‌گرایانه بر اساس ورودی یا دستور‌های خاصی تولید کنند.

س: آیا تولیدکننده‌های تصویری AI تبعیض دارند؟

ج: بله، تولیدکننده‌های تصویری AI ممکن است به دلیل داده‌هایی که بر آن‌ها آموزش دیده‌اند، تبعیض‌هایی داشته باشند که اغلب تصویری‌های نژادی موجود و تبعیض‌های اجتماعی را منعکس می‌کنند.

س: مشکل با تولیدکننده تصویری AI شرکت متا چیست؟

ج: تولیدکننده تصویری AI از شرکت متا، Imagine، مواجهی با ایجاد تصاویر دقیق از برخی از روابط نژادی داشت که به جای تولید تصاویر صحیح از “مرد آسیایی و دوست کافکاسیایی” یا “مرد آسیایی و همسر سفید”؛ به طور ثابت تصاویر دو فرد آسیایی تولید می‌کرد.

س: آیا تبعیض یک مشکل رایج در فناوری AI است؟

ج: بله، تبعیض یک مسأله پررسمی در فناوری AI است که برنامه‌های گوناگونی از جمله تولیدکننده‌های تصویری، چت‌بات‌ها و سایر سیستم‌های AI را تحت تأثیر قرار می‌دهد.

س: گیگانت‌های تکنولوژی چگونه در حال برطرف کردن این تبعیض‌ها هستند؟

ج: گیگانت‌های تکنولوژی به دنبال رفع تبعیض‌ها در سیستم‌های AI هستند. با این حال، هنوز زیادی کار برای اینکه تبعیض‌ها بصورت موثر از میان برود و عدالت و شیوه‌گرایی فناوری‌های AI تضمین شود، وجود دارد.

منابع:

منابع خاصی در مقاله اصلی ذکر نشده است.

The source of the article is from the blog crasel.tk

Privacy policy
Contact