Искусственный интеллект в выборах: защита демократии в цифровую эпоху

Искусственный интеллект (ИИ) революционизирует мир выборов, однако он также несет значительные риски для демократических процессов. По мере приближения выборов в Америке в 2024 году, опасения относительно создания ИИ-генерированной дезинформации, дипфейков и обманчивых медиа становятся более актуальными, чем когда-либо. К счастью, правительства и технологические компании признают необходимость действий, но для обеспечения защиты демократии еще предстоит проделать большую работу.

Недавняя Мюнхенская конференция по безопасности собрала ведущих представителей отрасли, включая OpenAI, Apple, Meta, Microsoft, TikTok, Google и другие, чтобы рассмотреть вызовы, связанные с применением ИИ на выборах. Они обязались предпринять меры для отслеживания происхождения ИИ-генерированного контента, выявления обманчивых медиа и принятия мер предосторожности против ИИ-обусловленного обмана. Хотя эти обязательства являются шагом в правильном направлении, их успех зависит от эффективной реализации.

Появление технологии генеративного ИИ позволяет мошенникам создавать невероятно реалистичные фейковые изображения, видео и аудио кандидатов и чиновников. Эти создания могут быстро распространяться с минимальными затратами и в масштабах. Кроме того, с помощью ИИ-приводимых чат-ботов можно создавать фейковые сайты выборов и вводящие в заблуждение новостные сайты всего за секунды. Эта возможность предоставляет плохим действующим лицам, как зарубежным, так и внутренним, средства для проведения кампаний воздействия, которые сложно отследить.

Интеграция генеративного ИИ в поисковые системы и чат-ботов привела к ситуациям, когда избиратели, ищущие информацию о выборах, сталкиваются с дезинформацией или направляются на периферийные сайты. Исследования показывают, что популярные инструменты ИИ часто плохо справляются с определенными вопросами, связанными с выборами. Более того, традиционные технологии ИИ могут способствовать проблемам с правом на участие в голосовании, что потенциально может привести к неправомерной вычистке избирателей из списка.

Для решения этих вызовов компании в области ИИ, такие как OpenAI, внедрили политики для смягчения вреда, наносимого выборам. OpenAI запретила пользователям создавать ИИ-чат-боты, выдававших себя за кандидатов, и распространять ложную информацию о голосовании. Более того, они предприняли шаги по шифрованию изображений, чтобы выявлять несанкционированное использование. Однако эти действия до сих пор имеют ограничения, и необходимо продолжить работу.

Одним из важных аспектов, требующим внимания, является адресация ложных повесток и изображений, которые страстили предыдущие циклы выборов. Политики OpenAI не являются явным запретом на создание и распространение контента, который ложно отражает вмешательство на выборах, надежность выборочных машин или массовое избирательное мошенничество. Явный запрет на эти категории предоставил бы больше ясности и защитил бы избирателей.

Сотрудничество с разработчиками сторонних компаний — еще одна область, требующая внимания. Когда сторонние поисковые системы используют модели OpenAI, предоставляемые ответы могут быть неточными или устаревшими. Более строгие требования для партнерств и интеграция моделей OpenAI в поисковые системы и цифровые платформы лучше защитили бы избирателей, ищущих информацию о голосовании и выборах.

OpenAI не в силах один справиться с этими вызовами. Другие крупные технологические компании также должны объявить о своих собственных политиках для генеративных инструментов ИИ на выборах и быть прозрачными в отношении своей деятельности. Открытый стандарт Коалиции по происхождению и подлинности контента для встраивания контента в цифровые маркеры должен быть широко принят.

Часто задаваемые вопросы

1. Какой эффект оказывает ИИ на выборы?

ИИ может использоваться для создания фейковых медиа, таких как изображения, видео и аудио, касающиеся кандидатов и чиновников. Он также способен генерировать вводящую в заблуждение информацию, распространять дезинформацию и осуществлять кампании воздействия.

2. Какие меры принимаются для защиты выборов от рисков, связанных с ИИ?

Правительства и технологические компании сотрудничают для отслеживания происхождения ИИ-генерированного контента, выявления обманчивых медиа и принятия мер предосторожности для смягчения обмана, обусловленного ИИ. Однако требуются дополнительные усилия.

3. Какие вызовы представляют сами по себе технологии ИИ для целостности выборов?

Технологии ИИ могут способствовать дезинформации, угрозам для права на участие в голосовании и распространению ложных повесток. Они могут также предоставлять вводящую в заблуждение информацию через поисковые системы и чат-ботов.

4. Как OpenAI борется с ущербом, связанным с выборами?

OpenAI внедрила политики, направленные на предотвращение создания ИИ-чат-ботов, выдававших себя за кандидатов, и распространения ложной информации о голосовании. Они также предпринимают шаги по защите от несанкционированного использования изображений.

5. Что могут сделать другие технологические компании для защиты выборов?

Технологические компании должны опубликовать свои собственные политики на выборы для генеративных инструментов ИИ. Прозрачность и сотрудничество необходимы для решения вызовов, возникающих из-за применения ИИ на выборах.

(Источники: source1.com, source2.com)

The source of the article is from the blog foodnext.nl

Privacy policy
Contact