NIST взял курс на борьбу с искусственными подделками с помощью новой инициативы

Запуск новой границы в области безопасности искусственного интеллекта
Ландшафт цифрового контента находится в процессе трансформации по мере того, как искусственный интеллект (ИИ) приобретает способность создавать убедительный текст, изображения и видео. Для решения нарастающей проблемы, представляемой так называемыми «deepfake», Национальный институт стандартов и технологий (NIST) начал свою акцию под названием ‘NIST GenAI’.

Авангард достоверности контента
Эта инициатива призвана возглавить разработку оценок для генеративных моделей ИИ, создавая методологии для определения, является ли медиа результатом творческого гения человека или продуктом алгоритмической мощи. С акцентом на достоверности контента, NIST GenAI нацелен на угрозу распространения дезинформации через средства генерации ИИ.

Вызовы для формирования надежности ИИ
В рамках новой инициативы NIST запустит ряд конкурсов, которые оценят возможности и слабые стороны генеративных технологий ИИ. Эти оценки призваны продвигать целостность информации и лидировать стратегии, обеспечивающие безопасность и ответственное использование цифрового контента.

Проекты идентификации стимулируют начало действий
NIST начинает с проектов, посвященных точному распознаванию контента, созданного ИИ, по сравнению с человеком, начиная с текстовых данных. Это связано с тем, что существующие инструменты для обнаружения манипуляций ИИ, особенно в видео, оказываются не всегда надежными.

Поощрение вклада от академической сферы и индустрии
Осознавая серьезность ситуации с дезинформацией, созданной ИИ, NIST приветствует участие академической и промышленной сфер в предоставлении генераторов контента ИИ и соответствующих детекторов. Этот вклад будет критически важен для создания надежных систем, способных различить происхождение контента.

Регулирование и сроки участия
NIST предлагает, что участники должны соблюдать все соответствующие законы и обеспечивать соблюдение данных. Подача заявок на участие начнется 1 мая, а крайний срок — 2 августа. Исследование планируется завершить к февралю 2025 года с целью ограничить увеличение объема вводящего в заблуждение контента, созданного ИИ.

Формирование будущего, направленного на ответственность и инновации
На фоне этих усилий NIST также формирует позицию правительства по использованию ИИ через проекты по выявлению рисков и лучшим практикам принятия технологий. Эти усилия соответствуют ответу организации на указ президента, требующий большей прозрачности и регулирования в области ИИ.

Важность инициативы NIST по ИИ-генерируемым фейкам
Генерируемые ИИ фейки, или deepfake, — это не только техническая проблема, но и значительная социальная проблема. По мере того, как технология deepfake становится более доступной и сложной, она приносит риски дезинформации, мошенничества с использованием личной информации и разрушения доверия к медиа. Инициатива NIST по выявлению и регулированию этих ИИ-генерируемых контентов является крайне важной для поддержания достоверности и подлинности цифровых медиа.

Ключевые вопросы и ответы
Почему NIST принимает участие? Экспертность NIST в установлении стандартов обеспечивает согласованность и безопасность в технологиях. Участие организации придает авторитет и структуру усилиям по контролю технологий deepfake.
Каковы потенциальные выгоды? Разработка стандартов для генеративных моделей ИИ может улучшить цифровую безопасность, сократить распространение ложной информации и помочь сохранить целостность цифрового контента.

Ключевые вызовы и контроверзии
Темп технологий: Технологии ИИ развиваются быстро, и имеется постоянная борьба за следованием новым методам генерации и обнаружения deepfake.
Ложноположительные результаты: Определение фальшивок может быть сложно. Слишком строгие правила могут помечать подлинный контент как фейковый (ложноположительные результаты), в то время как слишком мягкие правила могут не улавливать сложные фейки.
Проблемы конфиденциальности: Обнаружение deepfake часто требует анализа огромного объема данных, что может вызывать опасения о конфиденциальности пользователей и защите данных.

Преимущества и недостатки
Преимущества:
Доверие к медиа: Надежные методы обнаружения могут помочь восстановить доверие к цифровым медиа.
Предотвращение дезинформации: Сокращение распространения ИИ-генерируемых фейков может уменьшить дезинформацию и ее отрицательные социальные последствия.
Регуляторная структура: Установка стандартов может помочь создать регуляторную структуру для будущих разработок в области ИИ.

Недостатки:
Требуется много ресурсов: Разработка и соблюдение таких стандартов требуют значительных инвестиций времени, денег и знаний.
Свобода творчества: Существует тонкая грань между регулированием и цензурой; контроль может препятствовать творческому использованию генеративных технологий ИИ.
Подавление инноваций: Более строгие правила могут замедлить технологические достижения, налагая ограничения на разработчиков и исследователей.

Для получения дополнительной информации о стандартах, относящихся к технологиям, вы можете посетить веб-сайт Национального института стандартов и технологий по адресу NIST.

Privacy policy
Contact