Вызов генеративного искусственного интеллекта в контексте выборов

Несмотря на растущее количество доказательств, подтверждающих победу президента Джо Байдена на выборах 2020 года, все еще существует значительное количество республиканцев, кто сомневается в легитимности его победы. Этот скептицизм подогревается распространением утверждений о избирательных махинациях среди правых кандидатов, баллотирующихся на должность. Теперь, с появлением генеративного искусственного интеллекта (ИИ), проблема дезинформации, связанной с выборами, потенциально может усугубиться.

Недавний отчет от Центра борьбы с цифровой ненавистью (CCDH) пролил свет на риски, связанные с генеративным ИИ в распространении вводящей в заблуждение информации во время выборов. Пока компании, разрабатывающие инструменты генеративного ИИ, утверждают, что внедрили меры безопасности для предотвращения распространения такой дезинформации, исследователи в CCDH смогли обойти эти меры и создать вводящие в заблуждение изображения в любом случае.

Исследователи CCDH протестировали различные платформы генеративного ИИ, включая ChatGPT Plus, Midjourney, Dream Studio и Image Creator. Результаты показали, что Midjourney был особенно склонен к созданию вводящих в заблуждение изображений, связанных с выборами, с точностью около 65 процентов. В сравнении ChatGPT Plus производил такие изображения всего 28 процентов времени.

Одной из проблем, выделенных Каллумом Худом, главным исследователем Центра борьбы с цифровой ненавистью, является отсутствие четких политик и мер безопасности на этих платформах относительно создания изображений, которые могут быть использованы для продвижения ложных утверждений о украденных выборах. Худ подчеркивает, что платформы должны сосредотачиваться не только на предотвращении создания вводящих в заблуждение изображений, но и на эффективном обнаружении и удалении такого контента.

Хотя OpenAI предпринял шаги по решению этой проблемы, включая запрет изображений, которые подрывают демократическое участие, другие платформы, такие как Midjourney и Dream Studio, не явно обращались к созданию политического или вводящего в заблуждение контента. Это вызывает опасения относительно общей готовности генеративных платформ ИИ обеспечивать точность и честность информации, связанной с выборами.

Предстоящие выборы станут настоящим тестом для протоколов безопасности платформ генеративного ИИ. Худ подчеркивает необходимость прогресса как в разработке эффективных инструментов для предотвращения создания вводящих в заблуждение изображений, так и в внедрении надежных платформ, способных обнаруживать и удалять такой контент. Обеспечение целостности выборов и предотвращение распространения дезинформации должно быть совместной ответственностью среди разработчиков ИИ, операторов платформ и законодателей.

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact