В четверг, 23 мая, Мередит Уиттейкер, руководитель шифрованного мессенджера Signal, поделилась своими опасениями относительно массового наблюдения и технологий искусственного интеллекта (ИИ). Выступая перед AFP на фоне конференции VivaTech в Париже, она отметила, что ИИ, которому восторженно кланяются в индустрии технологий, глубоко укоренился в практиках массового наблюдения.
Обсуждая взаимосвязь между наблюдением и ИИ, Уиттейкер указала на то, что технологии ИИ процветают на больших наборах данных, которые являются продуктами массовой модели бизнеса наблюдения, зародившейся в 1990-х годах в Соединенных Штатах. Эта модель с тех пор стала основной экономической силой в технологическом секторе.
Уиттейкер, также являющаяся президентом Signal Foundation, подчеркнула опасности, которые несут в себе ИИ системы, генерирующие и обрабатывающие большие объемы данных. Эти системы имеют способность классифицировать и формировать нашу жизнь таким образом, что должно вызывать равную озабоченность. Она отметила, что незначительное количество гигантов наблюдения в значительной степени контролируют отрасль, которая часто функционирует безответственно.
Будучи бывшим профессором исследований в Нью-Йоркском университете и сотрудником Google, который организовал забастовку сотрудников из-за условий работы, Уиттейкер не является незнакомкой с этическими последствиями технологий. Она крепко отстаивает приватность и выступает против бизнес-моделей, основанных на извлечении персональных данных.
Кроме того, Уиттейкер подчеркнула дисбаланс сил, при котором большинство людей подвергается использованию ИИ работодателями, правительствами и правоохранительными органами, вместо того чтобы быть активными пользователями. Она высказала критику в адрес фирм ИИ, которые заявляют о своем вкладе в решение климатического кризиса, в то время принимая финансирование от компаний нефтяной промышленности и позволяя использовать свои технологии для добычи новых ресурсов.
Уиттейкер завершила свою речь призывом Европе раздумать не только о конкуренции с американскими фирмами ИИ, но и о переосмыслении технологий, которые служат более демократическим и плюралистическим обществам. Будучи ключевой фигурой в Signal Foundation, она продолжает отстаивать приватность и этические соображения в индустрии технологий.
Важные вопросы:
1. Какие этические проблемы связаны с ИИ и массовым наблюдением?
2. На чем основана зависимость технологий ИИ от больших наборов данных и каковы последствия?
3. Какую роль играет Signal Foundation в защите приватности?
4. Как дисбаланс сил влияет на использование ИИ обществом?
5. С какими проблемами сталкивается Европа в конкуренции с американскими фирмами ИИ с точки зрения этических и приватных стандартов?
Ответы:
1. Этические проблемы, связанные с ИИ и массовым наблюдением, включают потенциальные нарушения приватности, отсутствие согласия на сбор данных, возможные предвзятости в алгоритмическом принятии решений, использование данных в манипулятивных целях и создание дисбаланса сил между теми, кто контролирует технологию, и широкой публикой.
2. Технологии ИИ зависят от больших объемов данных для обучения моделей машинного обучения, что означает, что им требуется огромное количество информации для улучшения своей точности и эффективности. Последствия включают нарушение приватности, риски безопасности в случае утечки данных и вопрос о том, кому принадлежат и контролируют данные.
3. Signal Foundation — это некоммерческая организация, посвященная разработке открытых технологий приватности, которые поддерживают свободное выражение и обеспечивают безопасное глобальное общение. Фонд ответственен за Signal, зашифрованный мессенджер, предназначенный для обеспечения конфиденциальности разговоров пользователей.
4. Дисбаланс сил в использовании ИИ часто приводит к тому, что технология используется работодателями, правительствами и правоохранительными органами таким образом, что влияет или контролирует людей, а не дает им силу. Это может привести к обществу наблюдения, в котором граждане мониторятся без согласия или прозрачности.
5. Европа сталкивается с вызовом создания технологий ИИ, которые соответствуют ее ценностям демократического управления и защите приватности. Это включает не только конкуренцию с американскими фирмами ИИ, но также развитие этичного ИИ, отвечающего европейским стандартам и целям общества.
Ключевые вызовы и противоречия:
— Приватность против инноваций: Нахождение баланса между технологическим прогрессом и защитой индивидуальной приватности является главным вызовом.
— Законы о защите данных: Обеспечение устойчивых законов о защите данных, таких как Общий регламент по защите данных (GDPR) в Европе, является крайне важным и часто контроверзиальным, особенно при их международном применении.
— Развитие этичного ИИ: Разработка ИИ этичным образом, который предотвращает предвзятость и уважает права человека, остается спорной областью, где различные заинтересованные стороны имеют различные интересы.
Преимущества и недостатки:
Преимущества:
— ИИ может автоматизировать сложные задачи, что приводит к повышению эффективности и производительности.
— Он может быстро анализировать огромные объемы данных, помогая в процессах принятия решений.
— У ИИ есть потенциал для стимулирования инноваций в различных секторах, включая здравоохранение и транспорт.
Недостатки:
— Системы ИИ могут нарушать личную приватность, собирая и анализируя персональные данные.
— Если не разработано тщательно, ИИ может поддерживать предвзятость и дискриминацию.
— Существует риск чрезмерной зависимости от ИИ, что приведет к потере человеческих навыков и рабочих мест.
Предлагаемые связанные ссылки:
— Signal Foundation
— Конференция VivaTech
— Европейская Комиссия (для GDPR и политики ИИ в ЕС)