Прихований вплив штучного інтелекту на дезінформацію та міжнародне втручання.

Експерти видалили гостре попередження про те, як штучний інтелект (AI) використовується для посилення дезінформації та сприяння зовнішньому втручанню в непередбачуваних масштабах і за знижених витратах. Технології штучного інтелекту надають потужний поштовх процесам автоматизації створення масового контенту, впливаючи на глобальні події, включаючи вибори.

Валентин Шатель із Цифрового дослідницького лабораторії Атлантичної ради (DFRLab) підкреслив, як штучний інтелект революціонізує генерацію контенту, дозволяючи розповсюдження великих обсягів зовнішнього контенту під час критичних політичних періодів, таких як вибори до Європейського Союзу.

Дані, вивчені AFP від колективу Antibot4Navalny, який відстежує цифрові кампанії впливу, пов’язані з Росією, розкрили використання тисяч автоматизованих облікових записів ботів. Ці боти, як повідомляється, займаються інтенсивною пропагандою, особливо помітною після трагічних подій. Наприклад, після атаки в Москві, на соціальних медіа платформах виник вибух понад двох мільйонів повідомлень, що пропагували наративи, що зображали Україну та західні сили у співучасті, узгоджуючи їхні твердження з офіційними заявами російських чиновників, незважаючи на те, що подію було взято на себе Ісламською державою (EI).

Розмах і адаптивність використання штучного інтелекту у дезінформації були підкреслені OpenAI, розробником застосунку ChatGPT. Вони повідомляють, що російська, китайська, іранська та ізраїльська комерційні групи задіяли їхні інструменти штучного інтелекту для впливу на громадську думку міжнародно. Створений штучним інтелектом контент широкого спектру тематик, включаючи геополітичні теми і часто супроводжується візуальними сатирами.

Штучний інтелект ускладнює завдання для систем модерації соціальних мереж у виявленні ботів, оскільки вони можуть публікувати масу повідомлень зі схожим вмістом, які не є ідентичними. Александр Алафіліпп, виконавчий директор європейської НПО EU DisinfoLab, вказав на обманливу природу цих тактик, де реальні прес-статті розсипані з політичними повідомленнями, симулюючи широку внутрішню підтримку.

Більше того, штучний інтелект досконалий у мистецтві імітації, як це бачимо в операціях з назвами Doppelgänger, що імітує західні ЗМІ для поширення хибних наративів, та Olympiya, спрямованих на Олімпіаду в Парижі 2024 року. Алафіліпп передбачає, що такі стратегії не є короткостроковими планами, а призначені для існування та еволюції, з ключовими подіями, такими як президентські вибори у США, як потенційними цілями цих постійних кампаній.

Ласкаво просимо ознайомитися з такими питаннями та відповідями:

П: Як штучний інтелект впливає на поширення дезінформації?
В: Штучний інтелект радикально підвищує здатність генерувати та поширювати дезінформацію, автоматизуючи процес створення контенту, що дозволяє поширювати хибні наративи в розмірах, що раніше не відомі. Він може створювати реалістичний текст та зображення, які складно відрізнити від автентичного контенту.

П: Які виклики пов’язані з виявленням штучно створеної дезінформації?
В: Створений штучним інтелектом контент може бути дуже складним, що ускладнює завдання для традиційних систем модерації його виявлення. Крім того, штучний інтелект може генерувати різноманітні повідомлення з однаковим обманюючим вмістом, але не є дослівними копіями, ускладнюючи зусилля по виявленню.

П: Які суперечності пов’язані з використанням штучного інтелекту в кампаніях дезінформації?
В: Використання штучного інтелекту в дезінформації викликає етичні питання щодо маніпулювання громадською думкою, підриву демократичних процесів та відповідальності розробників штучного інтелекту у попередженні використання їхніх інструментів для злочинних цілей.

П: Як можна регулювати штучний інтелект для запобігання дезінформації та зовнішньому втручанню?
В: Регулювання штучного інтелекту включає складні питання щодо свободи слова, інновацій та кібербезпеки. Політики стикаються з викликом розробки законодавства, яке може ефективно стримувати зловживання штучним інтелектом, не пригнічуючи технологічний розвиток або порушуючи права.

Основні проблеми або суперечності:

Етика: Триває дискусія про етичні наслідки використання штучного інтелекту для створення обманливого контенту та про те, чи повинні розробники штучного інтелекту нести відповідальність за недобропорядне використання їхніх платформ.

Регулювання: Розробка ефективного регулювання, яке не стримує інновації чи свободу слова, є великим викликом. Також існує необхідність у встановленні міжнародних стандартів, оскільки вплив штучного інтелекту перетинає національні кордони.

Глобальна політика: Взаємодія між штучним інтелектом, дезінформацією та глобальною політикою складна, з кампаніями зовнішнього втручання, які використовують дезінформацію як стратегію для підточення демократій та коливання міжнародних відносин.

Переваги та недоліки:

Переваги:
– Штучний інтелект може прискорити виявлення дезінформації, розпізнавши патерни, які можуть пропустити люди.
– Він також може зміцнити якісний журналістику, допомагаючи у фактчекінгу та звільнюючи людські ресурси для глибокої розробки.

Недоліки:
– Штучний інтелект може бути використаний для створення та розповсюдження дезінформації в масштабах.
– Реалістичний характер створеного штучним інтелектом контенту може обдурити громадськість, призводячи до проблем з довірою та розділених у суспільстві поглядах.

Для подальшого дослідження цих тем варто відвідати такі пов’язані посилання:

Атлантична рада
EU DisinfoLab
OpenAI

Будь ласка, переконайтеся, що перевіряєте URL-адреси, оскільки достовірність домену важлива для доступу до точної та актуальної інформації.

Privacy policy
Contact