Посреди растущих опасений относительно злоупотребления искусственным интеллектом при создании эксплицитного контента, независимый Совет по надзору Meta берет на себя инициативу по борьбе с распространением подобного материала на его платформах, включая Facebook и Instagram, где регулирование наготы и сексуального контента является давней политикой. Совет рассматривает два значительных случая с использованием искусственного интеллекта для создания эксплицитных изображений публичных лиц, чтобы оценить эффективность политики Meta и практик ее применения против этой формы домогательств.
Эта оценка призвана привлечь внимание к проблемам онлайн-домогательств, усугубляемых «deepfake порнографией», которая все чаще нацеливается на знаменитостей и политиков, стимулируя обсуждения вокруг более строгих регулятивных мер.
Один из случаев, находящихся в центре внимания, — это пост в Instagram, который содержал нагое изображение индийской женщины, созданное при помощи искусственного интеллекта и опубликованное учетной записью, известной своим распространением подобного контента, который Meta изначально не проверила в течение 48 часов. Пост был удален после того, как пользователь обратился в Совет по надзору. Другой случай связан с постом в Facebook, найденным в группе по искусству с использованием искусственного интеллекта, отображающим нагое изображение, напоминающее известную американскую фигуру.
Фокус Совета расширяется за пределы этих случаев, исследуя справедливость и последовательность модерации контента Meta на различных рынках и языках. Эта инициатива, описанная со-председателем Хелле Торнинг-Шмидт, демонстрирует усилия по защите пользователей по всему миру. Совет открыт для общественных комментариев по этому вопросу и намерен представить свое решение и рекомендации о возможных улучшениях политики Meta в ближайшие недели.
Текущие тенденции на рынке:
Генерируемый искусственным интеллектом контент, включая deepfake, становится все более сложный, вызывая рост опасений относительно возможного его злоупотребления. Социальные медиа-платформы все полнее применяют искусственный интеллект и алгоритмы машинного обучения для обнаружения и удаления эксплицитного материала. Однако технология вызвала цифровую гонку между создателями контента и модераторами платформ. Кроме того, повышенное внимание к конфиденциальности данных и защите пользователей стимулирует растущий спрос на прозрачность и ответственность со стороны технологических компаний.
Прогнозы:
Поскольку генерируемый искусственным интеллектом контент становится все более распространенным, ожидается рост рынка технологий обнаружения и предотвращения. С развитием искусственного интеллекта вероятно возрастет распространенность и сложность использования генерируемых искусственным интеллектом эксплицитных изображений. Следовательно, потребность в надежных регулятивных мерах и инструментах модерации будет становиться более актуальной.
Основные проблемы и споры:
Центральной проблемой является балансирование между защитой конфиденциальности личности и свободой выражения. Ведется обсуждение о том, кто должен нести ответственность за модерацию контента — сами платформы или внешний орган. Этические вопросы, касающиеся согласия и несанкционированного использования обликов людей для создания эксплицитного контента без их разрешения, добавляют сложности к проблеме. Кроме того, существует потенциал для пристрастной модерации на неанглийских языках или в развивающихся рынках из-за меньшего количества ресурсов и культурных различий.
Самые важные вопросы:
1. Как Meta сможет различить между согласным контентом для взрослых и несогласным генерируемым искусственным интеллектом эксплицитным материалом?
2. Какие протоколы должны быть установлены, когда реальные личности изображаются без их согласия?
3. Как Meta гарантирует справедливость и эффективность в своей модерации на всех языках и рынках?
4. Какие меры по конфиденциальности будут приняты для защиты личностей и данных пользователей?
Достоинства:
— Искусственный интеллект способен анализировать гигантские объемы данных быстрее, чем человеческие модераторы, что может привести к быстрому удалению неподходящего контента.
— Участие Совета по надзору способствует прозрачности и может увеличить доверие общественности к процессам модерации контента Meta.
Недостатки:
— Алгоритмы искусственного интеллекта могут некорректно интерпретировать контекст, что может привести к ложноположительным или ложноотрицательным решениям.
— Эксплицитные изображения могут нанести необратимый вред репутации и психическому здоровью изображенных личностей.
— Сложности разных языков и культурных норм делают однородную и справедливую модерацию затруднительной.
Для получения дополнительной информации о широких усилиях и руководящих принципах в области регулирования онлайн-контента, конфиденциальности и использования искусственного интеллекта заинтересованные читатели могут посетить веб-сайт Meta по адресу about.fb.com.
The source of the article is from the blog be3.sk