Штучно створені зображення становлять загрозу цілісності виборів

Під час готування Сполучених Штатів до президентських виборів у листопаді зростає тривога щодо руйнівного потенціалу штучного інтелекту (ШІ), який може легко створювати підтримуючі фейкові зображення та тексти. Цей страх особливо стосується можливості поширення шахрайських зображень, які можуть бути помилково прийняті за Президента Джо Байдена, що шукає переобрання, та колишнього Президента Дональда Трампа, який прагне повернутися.

Хоча компанії, розробники ШІ стверджують, що вони впроваджують заходи для запобігання зловживанням, експерти критикують ці зусилля як недостатні. Центр боротьби з цифровою ненавистю (CCDH) склав звіт у березні, придумавши термін “фабрики фейкових зображень” і провів експеримент з чотирма послугами ШІ: Image Creator від Microsoft, ChatGPT Plus (DALL-E 3) від OpenAI, Dream Studio від Stability AI та послугою з такою ж назвою від Midjourney, для їх здатності створювати зображення, що можуть змінити вибори. Вони видали 40 різних інструкцій, тематика яких пов’язана з президентськими виборами, щоб визначити можливість створення зображень. Успішність становила тривожні 41%, хоча вважалися успішними тільки переконливо реалістичні зображення.

Дослідження призвело до створення зображень, таких як госпіталізований Байден у ліжку у халаті та розгублений Трамп у в’язниці. ChatGPT Plus мав найвищий рівень блокування у створенні фейкової інформації, тоді як Midjourney мав найнижчий. Відмінності у змозі створювати такі зображення були приписані не технічним можливостям, а рівню заходів забезпечення безпеки.

CCDH також висловлює занепокоєння стосовно того, як легко такі ШІ-згенеровані зображення можуть використовуватися як фейкові докази виборчої шахрайства. Тривожні випадки, такі як зображення бюлетенів у смітниках або відео чоловіка, який руйнує виборчу скриньку кийкою, були досить досяжними за допомогою цих інструментів.

Попередні президентські вибори в США у 2020 році були супроводжені неправдивою інформацією про маніпулювання голосами, що підкреслює роль теорій змов у підозрах стосовно виборів. CCDH застерігає, що такі зображення можуть бути зловживані як якісь “докази” виборчого шахрайства, створюючи значний виклик.

Щодо цих ризиків, гіганти галузі, включаючи Google, OpenAI, Microsoft та Meta, погодилися у лютому співпрацювати для запобігання зловживанням генеративним ШІ на цьогорічних виборах. Незважаючи на такі обіцянки, технологічні рішення, такі як цифрові водяні знаки, задумані для аутентифікації ШІ-генерованого контенту, легко ухилялися, як повідомляється IEEE та розголошується OpenAI, показуючи, що існуючі заходи можуть бути недостатніми для стримування поширення дезінформації.

Тривога зростає зі швидким поширенням таких брехні, чому служить інцидент у січні, коли непристойні фейкові зображення співачки Тейлор Свіфт стали вірусними, набравши 47 мільйонів переглядів на платформі, раніше відомій як Twitter, перед тим як відповідний акаунт було призупинено.

Цілісність виборів та ШІ-згенеровані зображення – ключові питання та виклики

У статті зазначено вплив ШІ-згенерованих зображень на цілісність виборів, особливо коли США очікує напружених президентських виборів. Ключові питання, які випливають з цієї проблеми, включають:

– Як можна розрізнити між автентичним та ШІ-згенерованим контентом під час виборів?
– Які заходи можуть ефективно запобігти створенню та поширенню маніпулятивних ШІ-згенерованих зображень?
– Як буде забезпечено довіра громадськості до виборчого процесу перед ШІ-згенерованою дезінформацією?

Відповіді та потенційні рішення

Диференціація між автентичним та синтетичним контентом вимагає поєднання технологічних рішень та громадської освіти. Наприклад, кампанії з цифрової грамотності можуть допомогти громадськості розпізнати ознаки обробленого медіа. Крім того, використання технологій, таких як блокчейн для перевірки зображень або використання передових засобів розпізнавання візерунків, що можуть виявляти аномалії у синтетичних зображеннях, може забезпечити додаткові рівні аутентифікації.

Ефективне запобігання також залежить від відповідальності платформ та регулятивних заходів. Соціальні медіаплатформи можуть впроваджувати жорсткі фільтри завантаження та процеси верифікації, тоді як уряди можуть застосовувати стандарти прозорості та відповідальності для компаній, що розвивають ШІ-технології.

Для підтримки довіри до виборчого процесу виборчі посадовці та медіаорганізації повинні оперативно сповіщати про заходи, вжиті проти дезінформації, та чітко маркувати ШІ-згенерований контент.

Виклики та суперечності

Ключові виклики полягають в балансуванні розвитку ШІ-технологій з етичними розглядами та громадськими свободами. Є контроверзія щодо можливого переходу компаній з технологій або урядів на модерацію контенту, що може обмежити свободу слова. Тим часом розробники ШІ-систем стикаються з етичними проблемами у стримуванні зловживань без придушення інновацій.

Небезпеки “глибоких фейків” у політиці представляють серйозну етичну проблему, оскільки ці переконливі фальсифікації можуть підірвати публічних особистостей та впливати на громадську думку, що може призвести до неправдивих наративів, які можуть нарушити демократичні процеси.

The source of the article is from the blog macholevante.com

Privacy policy
Contact