Глобалните операции за влияние използват изкуствен интелект, за да повлияят на общественото мнение.

Опитите за цифрова манипулация явно са достигнали нови граници, тъй като ИИ технологията е внедрена от влиятелни групи от Русия, Китай, Иран и частна израелска фирма в опити да повлияят на общественото мнение в други страни, съобщава OpenAI.

По време на връха на изборите за ЕС, Валентин Шателе от DFRLab на Атлантическия съвет посочи значително увеличение на разпространението на чуждестранно произведено съдържание онлайн, стимулирано от напредъка в ИИ, който позволява масово производство на потенциално манипулативно съдържание.

Един значителен ръст в съмнителната онлайн дейност беше забелязан след атака в зала „Крокус Сити“ близо до Москва. Забележително е, че в рамките на 24 часа се появиха над два милиона публикации онлайн, приписващи атаката на Украйна и западните сили, наратив, който напомняше началния изказ на руските власти, въпреки че ИДИЛ заяви отговорност за инцидента.

Antibot4Navalny, колектив, наблюдаващ операциите за дигитално въздействие, свързани с Русия, отбеляза, че ботовете преминават към фокусиране изцяло върху значимите събития, отклонявайки се от редовните си модели. Освен това, насърчението AI позволява на тези ботове да избягват откриването от страна на модераторите на социалните медии, като генерират разнообразни, но подобни съобщения и понякога съчетават истински новини с политически коментари. Това стратегическо бомбардиране със съдържание може да даде на потребителите лъжливо впечатление, че определени гледни точки се държат широко разпространени в тяхната собствена страна.

Такива тактики са по-скоро свързани с Русия, но други страни като Азербайджан, Иран и Китай също са маркирани от експертите за техните онлайн чуждестранни интервенции. Скорошни разкрития показаха операции като Доупългангър и Олимпия, с цел да целят дългосрочни събития, включително Олимпийските игри в Париж 2024 г. и да повлияят на наративите по време на критични моменти, като президентските избори в САЩ и кандидатурата на Джо Байдън по време на съдебни процедури срещу Доналд Тръмп.

Поредните и предстоящи избори в САЩ играят ключова роля, особено в контекста на стратегическия интерес на Русия да подкопае западната подкрепа за Украйна, добавя дефензивният и изследовател по сигурност Джон Кенеди от Корпорацията на Ранд.

Основни въпроси и отговори:

1. Какви примери илюстрират използването на ИИ в глобалните операции за влияние?
– По време на изборите за ЕС имаше значително увеличение на чуждестранното съдържание онлайн.
– След атаката в Крокус Сити Хол, Москва, над два милиона публикации бързо разпространяха фалшиви наративи онлайн.
– Операциите като Доупългангър и Олимпия целиха да въздействат на наративите по време на критични събития като президентските избори в САЩ.

2. Кои страни са обвинявани в използването на ИИ за цифрова манипулация?
– Посочените страни са Русия, Китай, Иран и Азербайджан. Допълнително е открита частна израелска фирма.

3. Как влияят ИИ-проучени ботове на възприятието по време на значими геополитически събития?
– ИИ-проучените ботове създават илюзия за мнозинствена гледна точка, като наводняват социалните платформи със съдържание, което е политически заредено или подкрепя определен наратив.

Основни предизвикателства и спорове:

Интеграцията на ИИ в операциите за въздействие представя редица предизвикателства и спорове, като:

– Откриването на сложни ботове и кампании за дезинформация, активирани от ИИ, става все по-трудно за модераторите на социалните медии.
– Тези операции за влияние заплашват демократичните процеси и интегритета на изборите, като разпространяват дезинформация.
– Има изчезваща граница между истински граждански кампании и държавно спонсорирани операции за влияние, което прави трудно да се различат и намери начини за противодействие без да се съкращава свободата на словото.

Предимства и Недостатъци:

Предимства:

– ИИ може да обработва и разпространява информация бързо и в мащаб, което може да се използва за разпространяване на критична, истиносъобразна информация по време на спешни случаи.
– Системите на ИИ могат да помогнат за разбирането на тенденциите в голям мащаб на общественото мнение и да предоставят насоки за формиране на политики.

Недостатъци:

– Влиянието чрез ИИ може да изкриви публичния дискурс и да поларизира общностите.
– То подкопава доверието в цифровите платформи и може да подкопае увереността в медиите и демократичните институции.
– Има риск от ескалация, като нации се съревновават за създаване на по-впечатляващи и недокоснати системи на ИИ за цифрово влияние, което води до състезание в информационното пространство.

За повече информация по широката тема за глобалните операции за влияние, заинтересованите читатели могат да посетят уебсайтовете на мисленски центрове или институции, като Корпорацията на Ранд (rand.org), която предоставя изследвания и анализи на теми за отбрана и киберсигурност, или Цифровата лаборатория за форензика на Атлантическия съвет (atlanticcouncil.org), която работи за идентифициране, обнародване и обясняване на дезинформацията.

The source of the article is from the blog yanoticias.es

Privacy policy
Contact