Штучний інтелект піддається критиці через обурення через расову упередженість

Інструменти штучного інтелекту демонструють вроджені расові упередження, що є тривожним трендом із серйозними суспільними наслідками. Наприклад, ці інструменти часто помиляються у визначенні осіб з темнішим відтінком шкіри та проявляють упередження при обробці мови щодо фраз, що не традиційно асоціюються з білими спікерами.

В Сполучених Штатах, системи розпізнавання осіб на основі штучного інтелекту, які використовуються правоохоронними органами, розроблені для ідентифікації осіб з великих масивів фотографій. Але вони помітно проваливаються при роботі з особами з темними відтінками шкіри – особливо жінками – з помилковими показниками, які сягають навіть 35%.

Технологія штучного інтелекту і далі хвилює експертів своїми постійними помилками в расовій ідентифікації та упередженості мови. Недавні відкриття, опубліковані Валентином Гофманом з Інституту Аллена для штучного інтелекту, підкреслюють, що обробка американської афроамериканської вернакулярної англійської (AAVE) через моделі, такі як OpenAI’s GPT-4 і T5 від Google, може привести до тривожного “прихованого расизму”, де гіпотетичні кримінальні суди приймають строгіші рішення щодо говорців AAVE, навіть зауважуючи смертну кару в симульованих судових процесах щодо вбивств.

Відсутність різноманітності в технологічній галузі підживлює упередження штучного інтелекту. Основна проблема полягає у гомогенності у спільноті розробників штучного інтелекту, яка традиційно домінується білими чоловіками. Незважаючи на невелике збільшення різноманітності серед випускників комп’ютерних наук та зусилля провідних фірм зі сфери великого технології, важливі нерівності відчуваються.

Гіганти технологій визнають ці виклики. OpenAI охарактеризовала ці упередження як «помилки, а не функції» та висловила намір покращити демографічне представництво при оцінці своїх моделей штучного інтелекту з метою зменшення культурних непорозумінь та різниці в продуктивності в своїй технології.

Ключові питання та відповіді:

Які наслідки расового упередження в штучному інтелекті?
Расове упередження в штучному інтелекті може призвести до несправедливого поводження та дискримінації, особливо в критичних застосуваннях, таких як правоохоронна діяльність, кадровий відбір, кредитне скоринг та судова система. Це упередження може підірвати довіру до технологій штучного інтелекту та підтримувати системні нерівності.

Чому штучний інтелект проявляє расове упередження?
Штучний інтелект вивчається з даних, і якщо дані упереджені, то штучний інтелект вірогідно узяв би ці упередження на замітку. Відсутність різноманітності в технологіях означає, що набори даних та погляди, використані для навчання штучного інтелекту, можуть недостатньо представляти всі расові групи. Упереджені анотації та недорепрезентованість меншин у тренувальних даних сприяють цій проблемі.

Що робиться для вирішення расового упередження в штучному інтелекті?
Зусилля щодо вирішення расового упередження в штучному інтелекті включають уніфікацію тренувальних наборів даних, розробку алгоритмів справедливості та підтримку різноманітності в командах розробників штучного інтелекту. Сутності, які такі як Інститут штучного інтелекту Альфа та Ліга алгоритмічної справедливості, активно проводять дослідження та виступають за більш справедливі практики у сфері штучної інтелекту.

The source of the article is from the blog regiozottegem.be

Privacy policy
Contact