Штучний інтелект у відборі кандидатів: різноманітність та справедливість на шляху до забезпечення траведливості

Штучний інтелект у відборі кандидатів заробив собі значну популярність за останні роки, приблизно 70 відсотків компаній та 99 відсотків компаній Fortune 500 включили його в свої процеси найму. Однак ці алгоритми далекі від ідеальних та часто підтримують упередження, притаманні даним наймовою практикою в реальному житті, на якій вони були навчені. Це має особливо негативні наслідки для осіб, які зіткнулися з системними упередженнями в наймі, зокрема тих, хто має інвалідність.

Нью-Йорк прийняв кроки для боротьби з дискримінацією на робочому місці, ухваливши Закон про автоматизований інструмент прийняття рішень на роботі, що вимагає, щоб компанії, які користуються штучним інтелектом для робочих прийняттів, пройшли перевірки. Ці перевірки оцінюють упередження на підставі статі, расово-етнічних ознак та перетинаючихся категорій. Однак закон не включає інвалідність як одну з категорій оцінок. Це пропуск віддзеркалює небажання стикатися з алгоритмічними упередженнями, притаманними інструментам штучного інтелекту для найму, особливо відносно інвалідів.

Проблема полягає не лише в відсутності заходів по забезпеченню дотримання та стандартів контролю якості, але й у неприйнятті змін, що проявляється алгоритмами, які працюють на інструментах штучного інтелекту для найму. Ці алгоритми визначають шаблони у тренувальних даних та використовують їх для керування прийняттям рішень, що призводить до упереджених результатів. Це упередження особливо виражене для інвалідів, які в історії часто стикалися з виключенням з різних робочих можливостей. Просте включення більшої кількості профілів інвалідів у моделі тренування не є рішенням, оскільки різноманіття інвалідностей та неначесть алгоритмів створюють значні труднощі.

Інвалідні заявники часто стикаються з деавалюацією як з боку людських рекрутерів, так і з боку інструментів штучного найму через їх відхилень від жорстких критеріїв кваліфікації. Ці стандарти, хоча і використовуються як передбачення майбутнього успіху, часто не мають жодного відношення до фактичної професійної діяльності. Наприклад, індивід, який взяв перерву від роботи через хронічне захворювання, може зіткнутися з труднощами у забезпеченні співбесіди. У той час як людські рекрутери можуть вживати нюансів та враховувати необхідні адаптації, запропоновані Законом про доступність для інвалідів, штучні інструменти найму додержуються упереджених очікувань.

Штучні інструменти найму не лише автоматизують порушення Закону про доступність для інвалідів, але також вводять нові форми контролю та дискримінації. Ці інструменти намагаються виміряти особистісні риси та професійні навик на підставі таких факторів, як їх результати у відеоіграх чи записах. Однак ці оцінки часто не враховують унікальні виклики, з якими стикаються інваліди. Наприклад, технологія відеоаналізу може мати проблеми з реєстрацією облич невбралих та тих, хто має інвалідності, що впливають на їх зовнішній вигляд. Крім того, ці інструменти можуть помилково тлумачити психічні здібності та емоції, подальше підтримуючи упередження.

Зусилля з боротьби із упередженнями у штучних інструментах для найму через аудити є недостатніми. Упередження, що притаманні цим алгоритмам, не можуть бути усунуті лише за допомогою аудитів. Для забезпечення справедливості та запобігання дискримінації на робочому місці компанії повинні застосовувати більш комплексний підхід, що виходить за межі алгоритмічних аудитів. Заборона використання штучних інструментів для найму на кадрові рішення може бути необхідною для руйнування упереджень.

Законодавці Нью-Йорка повинні надати пріоритет усуненню штучних інструментів для найму, а не приймати закони, які надають півторних рішень. Ухиляючись від заклику до заборони, вони продовжують і поглиблюють дискримінацію на робочому місці, зумовлену штучним інтелектом, зокрема для пошукачів роботи з інвалідністю. Час для законодавців покласти відповідальність на компанії та дати перевагу справедливому та неупередженому ставленню до всіх заявників.

Часті питання (FAQs)

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact