Технологічні компанії об’єднують зусилля для боротьби з AI-створеними глибокими підробками

У важливому кроку кілька великих технологічних компаній об’єднали свої зусилля, щоб вирішити зростаючу проблему AI-створених глибоких підробок у контексті демократичних виборів. На конференції із питань безпеки в Мюнхені виконавчі директори Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok та ще дванадцять інших компаній, включаючи компанію Елона Маска X, підписали добровільний пакт про прийняття “розумних обережностей” проти використання AI-інструментів для руйнування виборів по всьому світу.

Хоча угода має в основному символічне значення, вона підкреслює зобов’язання компаній боротися з все більш реалістичними AI-створеними візуальними, аудіо та відеоматеріалами, що обманюють або змінюють зовнішній вигляд, голос або дії політичних кандидатів, виборчих посадовців та інших ключових учасників у демократичних виборах. Зауважимо, що угода спрямована на боротьбу з поширенням недостовірної інформації серед виборців про виборчі закони та процедури.

Навпаки до очікувань, компанії не зобов’язалися забороняти або вилучати глибокі підробки. Замість цього угода визначає стратегії для виявлення та позначення обманливого AI-контенту на їх платформах. Компанії також будуть обмінюватися кращими практиками та реагувати швидко та пропорційно, коли такий контент почне поширюватися.

Хоча зобов’язання, визначені в угоді, не мають обов’язкових вимог, вони демонструють спільні зусилля технологічних компаній у розв’язанні цього питання. Проте захисники демократії та спостерігачі можуть вважати недоречністю невизначеність зобов’язань і вимагати більші гарантії.

Важливо визнати, що компанії мають зацікавленість у забезпеченні того, щоб їхні інструменти не використовувалися для підірвання вільних і справедливих виборів. Угода визнає, що кожна компанія має власні політики щодо контенту, адаптовані до своїх платформ, сприяючи свободі висловлювання та уникненню занадто узагальненого підходу.

Угода стала важливим кроком у критичний момент, оскільки понад 50 країн планують провести національні вибори у 2024 році. Вже спостерігаються випадки втручання AI в вибори деяких країн, включаючи спроби зі стримування голосування шляхом використання AI-роботів-дзвінків та поширення AI-аудіозаписів, у яких імітуються кандидати. Законодавці, фактчекери та платформи соціальних мереж стикаються з викликом виявлення та пом’якшення впливу AI-створеної дезінформації.

Хоча угода переважно зосереджується на глибоких підробках, створених AI, вона визнає, що інші форми маніпуляційного контенту, відомі як “свинцяні фейки”, становлять подібну загрозу. Компанії соціальних медіа вже вживають кроки для стримування обманливих дописів через існуючі політики та вилучення дезінформації, пов’язаної з виборчими процесами. Тим не менш, для боротьби з дезінформацією потрібні більш комплексні заходи, такі як розробка систем рекомендації контенту, які пріоритизують точність над залученістю.

Подальша культурна інформація актуальна для боротьби з AI-створеною дезінформацією. Вона є свідченням спільної відповідальності технологічних компаній, урядів та організацій громадянського суспільства у забезпеченні цілісності демократичних виборів по всьому світу.

The source of the article is from the blog scimag.news

Privacy policy
Contact