Технология искусственного интеллекта представляет серьезные угрозы, считают сотрудники ведущих компаний AI
Группа нынешних и бывших сотрудников некоторых ведущих компаний по искусственному интеллекту (AI) выразили беспокойство о потенциальных опасностях, которые AI представляет для общества. Они обратились к технологическим компаниям с просьбой обязаться к большей прозрачности и развитию критической культуры для улучшения ответственности.
Призыв о разумной практике AI, поддержанный 13 подписантами, включая представителей OpenAI, Anthropic и Google’s DeepMind, подчеркивает настоятельность уменьшения рисков, таких как усиление неравенства, распространение ложной информации и возможность самостоятельной работы систем AI, что может привести к значительным потерям жизни. Подписанты отметили, что хотя эти угрозы могут быть уменьшены, у компаний есть существенные финансовые стимулы ограничить контроль.
Внутренние распри в OpenAI показывают более широкие проблемы
OpenAI, недавно столкнувшаяся с волной уходов сотрудников, испытала уход таких заметных фигур, как сооснователь Илья Суцкевер и ведущий исследователь Ян Лейк. Уходы также считаются некой косвенной критикой направления компании, где, по мнению некоторых, стремление к прибыли затмевает необходимость безопасного развертывания технологий.
Даниил Кокотайло, бывший сотрудник OpenAI, выразил свое отчаяние по поводу безразличия компании к опасностям AI. Его заявление отражает общую озабоченность тем, что фокус компании на ускоренное развитие полностью противоположен осторожному развитию, необходимому для такой мощной и сложной технологии.
Несмотря на эти проблемы, Лиз Буржуа, представитель OpenAI, признала наличие критической необходимости в развертывании AI.
Сотрудники AI требуют защиты информаторов и этических принципов
В связи с отсутствием государственного контроля сотрудники AI чувствуют себя одной из немногих групп, которые могут требовать ответственности от компаний. Конфиденциальные соглашения и недостаточные механизмы защиты информаторов ограничивают их способность поднимать тревогу.
В письме требуется, чтобы технологические компании придерживались четырех принципов, включая обещание о некараемости для информаторов, развитие культуры критики, обеспечение процедур для анонимного обращения с проблемами и отказ от соглашений, которые мешают обсуждению рисков.
Эти просьбы появились на фоне внутренних проблем в OpenAI, которые привели к временному увольнению генерального директора Сэма Альтмана, обостренных плохой коммуникацией о практиках безопасности фирмы.
Выдающиеся деятели в области AI, такие как Иошуа Бенджио, Джеффри Хинтон и компьютерный ученый Стюарт Рассел, поддержали призыв к действию, подчеркивая серьезность ситуации.
Ключевые вопросы и ответы
1. Почему эксперты по искусственному интеллекту призывают технологические компании к прозрачности и ответственности?
Эксперты по искусственному интеллекту призывают к прозрачности и ответственности из-за потенциальных рисков, которые представляет технология AI, включая усиление неравенства, распространение дезинформации и возможность самостоятельной работы систем AI с угрозой для жизни. Они считают, что без этих мер стремление к инновациям и прибыли может затмить важность безопасности и этических соображений.
2. Какие четыре принципа требуют сотрудники AI, чтобы компании приняли на себя?
Четыре принципа включают:
— Обещание о некараемости для информаторов.
— Развитие культуры, которая поощряет критику и дебаты.
— Предоставление процедур для анонимного выражения проблем.
— Отказ от соглашений, которые мешают открытым обсуждениям о рисках.
3. Что стало причиной внутренних раздоров в OpenAI?
Внутренние раздоры в OpenAI возникли из-за воспринимаемого уклонения в быстрое развитие и прибыльность к пренебрежению безопасности и этических соображений, что привело к серии увольнений сотрудников и более широкому исследованию направления компании.
Основные проблемы и споры
— Баланс между инновациями и безопасностью: Компании часто сталкиваются с проблемой согласования стремления к оперативному развитию и поддержки строгих стандартов безопасности и этики.
— Опаковые системы AI: Сложность систем искусственного интеллекта может привести к недопониманию или недостаточной прозрачности в процессе принятия решений, что усложняет надзор.
— Защита информаторов: Недостаточная защита тех, кто выдвигает замечания, может отпугнуть людей от выступлений против нравственно неприемлемых практик.
— Возможность злоупотребления: Технология AI может быть использована во вредных целях, что подчеркивает необходимость строгой ответственности.
Преимущества и недостатки
Преимущества:
— Повышенная безопасность: Упор на прозрачность и ответственность может привести к более безопасным системам искусственного интеллекта.
— Этическое развитие: Ответственные практики гарантируют, что технология AI соответствует общественным ценностям и этике.
— Доверие потребителей: Прозрачность может увеличить доверие общественности к технологиям и компаниям искусственного интеллекта.
Недостатки:
— Медленные инновации: Увеличенный контроль может замедлить выпуск новых технологий.
— Затраты: Реализация строгих механизмов надзора может требовать затрат для компаний.
Для получения дополнительной информации об искусственном интеллекте и связанных политиках вы можете обратиться к следующим ссылкам:
— OpenAI
— Anthropic
— DeepMind
Пожалуйста, обратите внимание, что эти ссылки должны вести на основные домены соответствующих упомянутых в статье организаций. Они предоставлены для получения дополнительной информации о их принципах и технологиях AI, и каждая ссылка проверена на достоверность на момент последнего обновления.
The source of the article is from the blog exofeed.nl