Роль и влияние искусственного интеллекта на общество

Искусственный интеллект (ИИ) стал значительной силой в индустрии технологий, оказывая влияние на различные аспекты нашей жизни. Рынок технологий ИИ стремительно растет, и по прогнозам компании MarketsandMarkets, к 2025 году его стоимость составит $190,61 миллиарда. Этот рост обусловлен увеличивающимся принятием технологий ИИ в таких секторах, как здравоохранение, финансы, автомобильная промышленность и розничная торговля.

Тем не менее, возрастают опасения относительно воздействия алгоритмов ИИ на маргинализированные общины, в частности на чернокожих людей. Инциденты, связанные с Gemini AI от Google, подчеркнули продолжающееся преследование чернокожих индивидуумов этими технологиями. Ошибочные результаты продукта Gemini AI, конвертирующего текст в изображения, получили серьезный отпор и в конечном итоге привели к его снятию с рынка. Этот инцидент вызывает более широкие проблемы, связанные со системным предвзятым отношением в алгоритмах ИИ.

Алгоритмические предвзятости давно являются проблемой в индустрии технологий. Исследование Сафии Нобл в 2018 году раскрывает тревожное количество порнографического и уничижительного контента при поиске «черные девочки» в Google. Кроме того, алгоритмы ИИ в области здравоохранения проявляют предвзятость, рекомендуя меньше лечебных процедур для чернокожих пациентов по сравнению с другими группами, как показывают различные исследования.

Одним из конкретных примеров предубеждений являются визуальные платформы ИИ, такие как Gemini. Алгоритм постоянно осветляет цвет кожи чернокожих людей при попытках визуализации их с разных углов. Этот образ пренебрежения и недостоверной репрезентации приводит к созданию изображений с преимущественно белыми чертами. Технологические компании, отвечающие за эти алгоритмы, часто не признают или не исправляют эти предвзятости должным образом.

Последствия алгоритмических предубеждений выходят далеко за пределы простых эмоций. Расследование ProPublica в 2017 году показало, что алгоритмы обнаружения ненавистнических высказываний Facebook диспропорционально замечали посты чернокожих детей, в то время как оскорбительный контент от белых мужчин проходил незамеченным. Аналогично The Markup сообщал в 2021 году, что политики блокировки рекламы Google на YouTube мешали рекламодателям нацеливать аудиторию, заинтересованную в «Black Lives Matter» или «Black Excellence». Эти примеры подчеркивают потенциальный ущерб, причиняемый предвзятыми алгоритмами, и необходимость большей ответственности.

В своей книге «More Than A Glitch: Confronting Race, Gender, and Ability Bias in Tech» профессор Мередит Бруссард раскрывает, как технологическая индустрия систематически искажает, стереотипизирует и исключает маргинализированные общины, в частности чернокожих индивидуумов. Это подчеркивает важность признания этих предвзятостей и требования ответственности от технологических компаний.

Важно для избранных должностных лиц принимать меры для защиты маргинализированных общин от вредных алгоритмов ИИ. Как они могут использовать национальную гвардию для борьбы с ростом преступности, они могут требовать от технологических компаний исправить или выключить алгоритмы, поддерживающие вредные тенденции. Существуют юридические меры, позволяющие быстро действовать и предотвращать несправедливое исключение какого-либо человека или общины.

Пришло время для проактивного подхода к устранению предвзятостей алгоритмов, направленных против чернокожих людей. Должно быть незаконно продавать алгоритмы, игнорирующие, унижающие или представляющие опасность для людей на основе их цвета кожи. Стремясь к более справедливому и инклюзивному будущему, требуется требовать от технологических компаний понести ответственность.

ЧаВо:

Q: Что такое Gemini AI?

A: Gemini AI — это продукт текст-в-изображение, разработанный Google.

Q: Как влияют алгоритмы ИИ на чернокожие общины?

A: Алгоритмы ИИ поддерживают стереотипы, искажают представление о чернокожих, а также рекомендуют предвзятые методы лечения.

Q: Какие действия предпринимают технологические компании для устранения предвзятостей в алгоритмах?

A: Технологические компании часто извиняются или временно снимают продукты с рынка, но не предпринимают конкретных шагов для устранения предвзятостей.

Q: Как избранные должностные лица могут решить вопросы предвзятостей в алгоритмах?

A: Избранные должностные лица имеют возможность требовать ответственности от технологических компаний и внедрять юридические меры для защиты маргинализированных общин.

Источники:
— Noble, S. (2018). «Algorithms of Oppression: How Search Engines Reinforce Racism.»
— ProPublica (2017). «Facebook’s Secret Censorship Rules Protect White Men from Hate Speech But Not Black Children.»
— The Markup (2021). «Google ‘Block List’ That Excluded Black YouTubers Took Effect.»

The source of the article is from the blog exofeed.nl

Privacy policy
Contact