Виросла важлива задача відмежовування автентичного аудіовізуального контенту

Технологічні досягнення вириваються за межі між реальністю та вигадкою у сфері аудіовізуальних засобів масової інформації. Боротьба за виявлення подій, пов’язаних із першоджерелом, загострюється, і з розвитком технологій це завдання буде тільки важчим. Недавно на соціальних медіаплатформах сталась шокуюча подія, коли аудіозаписи, приписані директору старшої школи Балтімору, з’явилися в мережі. У цих записах був присутній неспокійний расистський та антисемітський контент. Однак подальше розслідування правоохоронців розкрило правду: голос, що мало належати Еріку Айсверту, фактичному директорові, був штучно відтворений за допомогою складного засобу клонування голосу.

План вчителя виходить з-під контролю, поставивши директора в скрутну ситуацію, інциденти переросли в хаос, коли шкільна спільнота була проведена в оману, вважаючи, що образливі слова належать саме Айсверту. Злочинець, Дайон Дар’єн – вчитель фізичного виховання – вдало увійшов в свій винахідливий план включивши своє власне ім’я в підроблену аудіозапис, щоб зобразити себе жертвою прикметно предвзятого директора.

Ці апокаліптичні заяви вітріоловно навмисно намекали на те, що деяких співробітників, зокрема самого Дар’єна, необхідно звільнити з навчального закладу. Як тільки аудіо матеріал потрапив в інтернет, він швидко набрав обертів, викликаючи обурення серед учнів, викладачів та родин. Багато людей спочатку були обмануті цими записами, що призвело до громадського засудження і навіть загроз для Айсверта та його родини, що стимулювало втручання поліції.

Як deepfake може створювати медіа-сенсації та правові наслідки, розслідування призвело до арешту Дар’єна після виявлення факту використання ним шкільних ресурсів для виконання засобів клонування голосу та зв’язок з електронною адресою, використаною для поширення шахрайського аудіо. Хоча він не розміщував контент безпосередньо в соціальних мережах, електронний лист, який він відправив, скерував одного з колег, який не був притягнутий до відповідальності, на передачу його студенту з можливістю розповсюдження в мережі, що спричинило вірусну чесність.

Виявлення походження медіа – зростаюче виклик через стрімкий розвиток штучного інтелекту та технологій машинного навчання. Deepfake – це термін, який походить від “глибокого навчання” та “фейк”, відноситься до медіа, яке було маніпульовано таким чином, що воно виглядає реальним. Хоча ця технологія має потенціал для розваг та творчих цілей, вона також становить значну загрозу поширенню dezinformáció та клевети, як це було продемонстровано випадком старшої школи Балтімору із незаконно обвинуваченим директором.

Потреба у покращених методах виявлення є надзвичайно важливою для боротьби з поширенням deepfake. Наразі дослідники розробляють різноманітні техніки, такі як цифрове водознакування та блокчейн, для аутентифікації медіа. Тим не менш, оскільки технологія для створення deepfake стає все більш сучасною та доступною, виявлення стає грою в кота і миші. Моделі штучного інтелекту вже змагаються одна з одною, причому одна сторона створює deepfake, а інша – удосконалює виявлення.

Правові питання та етичні наслідки перебувають на передньому краї обговорення щодо deepfake. Багато країн все ще шукають відповідні законодавчі відповіді на ситуацію з deepfake із побоюванням від порушення приватності до можливих наслідків для демократії та національної безпеки. Випадок фальсифікації аудіовізуалів, що включив імітацію Еріка Айсверта, підкреслює необхідність ефективних законів та регуляцій, які визначать відповідальність осіб за створення та поширення фальшивих медіа.

Переваги та недоліки deepfakes залежать від їх застосувань. Хоча вони можуть значно підвищити реалізм у фільмах та іграх, чи використовувати для навчальних симуляцій, потенціал збитку величезний. Dezinformáció може розповсятися швидко, пошкоджуючи репутацію, впливаючи на вибори та навіть поставляючи під загрозу людські життя. Подвійна природа технології вимагає збалансованої відповіді, яка дозволяє інновацію, але зменшує ризики.

Щоб дізнатися більше про технологію deepfake та її широкі наслідки на медіа-ландшафт, вам можуть бути корисні наступні джерела:
Організація штучного інтелекту
Агентство кібербезпеки та інфраструктурної безпеки

Privacy policy
Contact