Понимание этики искусственного интеллекта и тень эвгеники в философии технологии

Эмиле Торрес и специалист по этике AI Тимнит Гебру пролили свет на тёмные течения, смешивающиеся в мире искусственного интеллекта. Они идентифицируют смешение трансгуманизма, эффективного алтруизма и долгосрочного планирования как идеологические потоки, несущие с собой тяжелое осадочное прошлого дискриминации.

Это внимание к дискриминационным идеологиям привлекло внимание, когда появились электронные письма двух десятилетий назад, раскрывающие философа Ника Бострома, тогдашнего директора Института будущего человечества Оксфорда, высказывающего расистские взгляды. Его влияние простирается на различные сферы, связанные с искусственным интеллектом, включая движения эффективного алтруизма и долгосрочного планирования.

Бостром столкнулся с публичной критикой и попытался извиниться, но его способ извинения вызвал дополнительное возмущение со стороны представителей AI, таких как лингвист Эмили Бендер, которая критиковала его обращение к ситуации.

После инцидента Торрес беседовал с различными сторонниками долгосрочного планирования, отмечая их раздражение от обвинения в расизме, хотя он указывает на неоспоримые следы эвгеники в их корнях. Некоторые настойчиво отрицают наличие расистских элементов в своих идеологиях, в то время как другие, такие как Питер Тиль и реакционное движение, принимают свои взгляды без осуждения. Сам Илон Маск столкнулся с обвинениями в расизме.

ТЕСКРЕАЛ, термин, придуманный Торресом и Гебру, включает в себя несколько влиятельных мыслительных течений в Силиконовой долине, включая трансгуманизм и космизм, которые иногда эхом повторяют идеи эвгеники начала 20 века. В исследовании, опубликованном в журнале First Monday, они предупреждают о том, как стремление к созданию «постчеловека» и «общего» искусственного интеллекта переплетается с устаревшими идеями эвгеники.

Они предостерегают, что многие работающие над общим искусственным интеллектом могут не знать о своей близости к ТЕСКРЕАЛ-перспективам, критикуя стремление к форме искусственного интеллекта, лишенной точного определения или проверяемости. Они отстаивают развитие искусственного интеллекта, который четко определен, проверяем и разработан для истинной безопасности.

Парадокс, лежащий в основе согласования искусственного интеллекта, возникает, когда мы пересекаем мутные воды между продвижением технологий и поддержанием этической целостности.

Вопросы для обсуждения в контексте этики искусственного интеллекта и эвгеники

1. Каковы исторические связи между эвгеникой и современными технологическими философиями?
2. Как перекрываются идеологии трансгуманизма, эффективного алтруизма и долгосрочного планирования с эвгеническими мыслями?
3. Какие меры принимаются для обеспечения того, чтобы развитие ИИ не было подвержено влиянию дискриминационных идеологий?
4. Как сбалансировать технологическое развитие с этическими соображениями для предотвращения вреда?

Основные проблемы и споры

— **Этические рамки**: Установление этических рамок, достаточно прочных, чтобы предотвратить ИИ от усиления или усовершенствования исторических несправедливостей.
— **Ответственность**: Гарантирование того, что лица и организации, занимающиеся разработкой ИИ, несут ответственность за свои этические стандарты.
— **Определение и проверяемость**: Определение того, что составляет ‘общий ИИ’ и разработка прозрачных и строгих условий тестирования.
— **Повышение осведомленности общественности**: Увеличение осведомленности общественности о этических последствиях ИИ и о возможных исторических оттенках, которые он может нести.
— **Диверсификация в области ИИ**: Содействие разнообразию среди тех, кто проектирует и строит системы ИИ, для предотвращения доминирования узких мировоззрений.

Преимущества

— **Инновации**: Технологические достижения в области ИИ могут привести к значительным улучшениям в различных областях, таких как медицина, образование и безопасность.
— **Экономический рост**: ИИ может способствовать экономическому росту путем оптимизации процессов, сокращения издержек и создания новых рынков и рабочих мест.

Недостатки

— **Предвзятость**: Без внимания к этике, системы ИИ могут поддерживать и даже усиливать существующие предвзятости в обществе.
— **Отсутствие прозрачности**: Сложные системы ИИ могут быть трудны для понимания, что ведет к отсутствию прозрачности в принятии решений.
— **Проблемы конфиденциальности**: Системы ИИ требуют огромных объемов данных, вызывая опасения о конфиденциальности и возможном злоупотреблении.
— **Угроза потери рабочих мест**: Автоматизация через ИИ может привести к значительной потере рабочих мест в некоторых отраслях.

Для дополнительных идей и ресурсов по искусственному интеллекту, вы можете посетить следующие веб-сайты:

Future of Life Institute: Организация, фокусирующаяся на рисках, создаваемых продвинутым искусственным интеллектом.
Electronic Frontier Foundation: Группа, защищающая гражданские свободы в цифровом мире и занимающаяся вопросами технологий и общественного интереса.
ACLU: Американский союз гражданских свобод работает над политикой и правовыми баталиями, связанными с технологиями и конфиденциальностью.
AI Ethics Lab: Инициатива, сосредоточенная на междисциплинарных исследованиях по разработке этики в области искусственного интеллекта.
Singularity Institute: Организация, посвященная безопасному и пользительному развитию искусственного интеллекта.

Заметьте, что связь любого из этих сайтов с предметом оригинальной статьи может варьироваться от непосредственного участия до периферийной релевантности, в зависимости от их текущих работ и опубликованных материалов, связанных с этикой искусственного интеллекта и общественным воздействием.

The source of the article is from the blog dk1250.com

Privacy policy
Contact