Новые горизонты использования искусственного интеллекта в избирательных кампаниях

Искусственный интеллект (ИИ) становится все более значительной проблемой в контексте выборов, так как он имеет потенциал создавать кампании дезинформации через распространение фейковых новостей и пропаганды. Эта развивающаяся технология, в частности, глубокие фейки, представляет серьезную угрозу избирательной честности и распространению дезинформации.

Применение ИИ для манипулирования общественным мнением уже было замечено во время предыдущих выборов в США. В одном случае ИИ-генерируемые робозвонки выдавали себя за президента США Джо Байдена с целью снижения явки избирателей. Эти кампании могут нацеливаться на конкретные демографические группы или регионы с персонализированными сообщениями, разработанными для манипулирования общественным мнением.

Микротаргетинг — это техника, используемая алгоритмами ИИ для анализа огромного объема данных и создания высокоспецифичных профилей отдельных избирателей. Эти профили могут быть использованы для нацеливания на людей с персонализированными сообщениями, рекламой, и даже дезинформацией, которая эксплуатирует их уязвимости или предвзятости. Эта техника была печально известна во время выборов в США 2016 года, когда использовала её компания Cambridge Analytica.

Влияние ИИ на манипуляцию в выборах не ограничивается действиями внутри страны. Государственные структуры, такие как Россия и Китай, также могут использовать ИИ для сбивания с толку и подрыва доверия к избирательному процессу. Американские разведывательные службы уже предупредили об потенциальном использовании другими странами ИИ для оказания влияния на выборы в США.

Технология глубоких фейков также стала предметом растущей озабоченности. Глубокие фейки представляют собой злоупотребление ИИ для создания кажущихся реальными речи и видео отдельных личностей, включая знаменитостей и политиков. Значение глубоких фейков в выборах стало очевидным, когда появилось видео глубокого фейка с поздним главным министром Тамилнаду, М. Карунандхи, поддерживающим кандидата. Это видео стало третьей попыткой создать глубокий фейк с участием покойного политика за шесть месяцев.

Потенциальный вред, наносимый глубокими фейками, заключается в их способности создавать полностью вымышленный контент, такой как выступления или интервью, которые могут быть использованы для дискредитации кандидатов или распространения ложной информации. Это представляет собой серьезную угрозу избирательной честности, поскольку генерируемые ИИ-глубокие фейковые видео и аудиозаписи могут убедительно показывать людей, говорящих или делающих то, что они никогда не делали.

ИИ также способен на манипуляции алгоритмами на платформах социальных медиа, чтобы усилить раздорчивый контент, продвигать определенные точки зрения и подавлять противоположные голоса. Эта манипуляция может влиять на общественное мнение и затруднять отличие между подлинной человеческой активностью и автоматизированными манипуляциями.

Опознавая потенциальный вред, наносимый ИИ на выборы, 20 технологических компаний, включая Google, IBM, Amazon, Microsoft и Facebook, подписали Соглашение по технологиям для борьбы с обманывающим использованием ИИ. Это соглашение нацелено на борьбу с злоупотреблением ИИ и на популяризацию этичных практик в его разработке и применении.

В заключение, всплеск использования ИИ представляет серьезные угрозы для избирательной честности, включая распространение дезинформации через фейковые новости и глубокие фейки. Необходимо, чтобы правительства, технологические компании и общество в целом были бдительными и инициативными в охране демократических процессов от этих новых вызовов.

Часто задаваемые вопросы:

1. Что такое микротаргетинг ИИ?
Микротаргетинг ИИ — это техника, использующая алгоритмы искусственного интеллекта для анализа больших объемов данных и создания высокоспецифичных профилей отдельных избирателей. Эти профили могут быть использованы для целевого воздействия на людей с персонализированными сообщениями, рекламой и даже дезинформацией, эксплуатирующей их уязвимости или предвзятости.

2. Что такое глубокие фейки?
Глубокие фейки — это злоупотребление искусственным интеллектом для создания кажущихся реальными речей и изображений отдельных личностей. Эта технология может создавать убедительные видео или аудиозаписи, в которых кажется, что человек говорит или делает что-то, что он на самом деле не делал.

3. Как ИИ может манипулировать алгоритмами на платформах социальных медиа?
ИИ может манипулировать алгоритмами на платформах социальных медиа для усиления раздорчивого контента, продвижения определенных точек зрения и подавления противоположных голосов. Эта манипуляция может влиять на общественное мнение и затруднять отличие между реальной человеческой активностью и автоматизированными манипуляциями.

Источники:
— Zscaler: www.zscaler.com
— Al Jazeera: www.aljazeera.com

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact