NIST берется за подделки, созданные искусственным интеллектом, с новой инициативой

Запуск новой эпохи в области безопасности искусственного интеллекта
Ландшафт цифрового контента претерпевает трансформацию с развитием возможности искусственного интеллекта (ИИ) создавать убедительные тексты, изображения и видео. Для решения возрастающей проблемы, вызванной так называемыми «дипфейками», Национальный институт стандартов и технологий (NIST) запустил новую кампанию под названием «NIST GenAI».

Авангард достоверности контента
Эта инициатива призвана возглавить разработку оценок для генеративных моделей ИИ и создать методики для различения контента, созданного человеческим разумом, от продукта алгоритмического мастерства. Уделяя внимание достоверности контента, NIST GenAI борется с угрозой распространения дезинформации через средства ИИ-генерации.

Проблемы формирования устойчивости ИИ
С инициативой, NIST представит серию конкурсов, которые оценят способности и уязвимости генеративных технологий ИИ. Эти оценки направлены на повышение целостности информации и создание стратегий, гарантирующих безопасное и ответственное использование цифрового контента.

Проекты идентификации ускоряют начало движения
NIST начал с проектов, посвященных точному распознаванию ИИ по сравнению с контентом, созданным человеком, начиная с текстовых данных. Это связано с тем, что существующие инструменты для обнаружения манипуляций ИИ, особенно в видео, оказываются недостаточно надежными.

Поощрение вкладов от академии и индустрии
Учитывая серьезность дезинформации, созданной ИИ, NIST приглашает академическое и промышленное сообщества принять участие, предоставив генераторы контента на ИИ и соответствующие их детекторы. Эти вклады будут критически важны для создания надежных систем, способных различать происхождение контента.

Регулирование и сроки участия
NIST предлагает участникам следовать всем соответствующим законам и обеспечивать соблюдение данных. Подача заявок начинается 1 мая, а срок окончания установлен на 2 августа. Исследование должно завершиться к февралю 2025 года с целью смягчения увеличения объема вводящего в заблуждение ИИ-генерированного контента.

Формирование будущего, основанного на ответственности и инновациях
В рамках этих усилий, NIST также формирует позицию правительства по использованию ИИ, разрабатывая черновики по выявлению рисков и методов принятия технологий. Эти усилия соответствуют отклику организации на указ президента, требующий большей прозрачности и регулирования в сфере ИИ.

б>Актуальность инициативы NIST по отношению к ИИ-созданной поддельной информации
ИИ-созданные фейки или deepfakes представляют собой не только техническую проблему, но и значительную социальную проблему. Поскольку технология дипфейков становится все более доступной и сложной, существует риск дезинформации, мошенничества с личностью и разрушения доверия к информационным источникам. Поэтому инициатива NIST по выявлению и регулированию созданных ИИ-контентов критична для сохранения доверия и подлинности в цифровых медиа.

Основные вопросы и ответы
Почему NIST включается в это? Опыт NIST в установлении стандартов гарантирует однородность и безопасность технологий. Их участие обеспечивает авторитет и структуру в управлении технологиями deepfake.
Каковы потенциальные выгоды? Разработка стандартов для генеративных моделей ИИ может улучшить цифровую безопасность, снизить распространение ложной информации и помочь сохранить подлинность цифрового контента.

Основные вызовы и проблемы
Темп технологий: Технологии ИИ развиваются быстро, и проводится постоянная борьба с новыми методами создания и обнаружения deepfakes.
Ложные срабатывания: Определение того, что является фейком, может быть непростым. Слишком строгие правила могут помечать подлинный контент как фейковый (ложные срабатывания), а слишком мягкие могут не замечать сложные фейки.
Проблемы конфиденциальности: Обнаружение deepfakes часто требует анализа больших объемов данных, что может вызывать заботы о конфиденциальности пользователей и защите данных.

Преимущества и недостатки
Преимущества:
Доверие к медиа: Надежные методы обнаружения могут помочь восстановить доверие к цифровым медиа.
Предотвращение дезинформации: Сокращение распространения ИИ-созданных фейков может сдержать дезинформацию и ее негативные общественные последствия.
Регулятивная структура: Установление стандартов может помочь в создании регулятивной структуры для будущих разработок в области ИИ.

Недостатки:
Ресурсоемкость: Разработка и внедрение таких стандартов требует значительных вложений времени, денег и экспертности.
Свобода творчества: Существует тонкая грань между регулированием и цензурой; надзор может затруднить творческое использование генеративного ИИ.
Подавление инноваций: Строжайшие правила могут замедлить технологические достижения, наложив ограничения на разработчиков и исследователей.

Для получения дополнительной информации о стандартах, связанных с технологиями, вы можете посетить веб-сайт Национального института стандартов и технологий по ссылке NIST.

The source of the article is from the blog yanoticias.es

Privacy policy
Contact