Рост онлайн эксплуатации детей обнаружен технологией искусственного интеллекта

По последним данным Национального центра по пропавшим и эксплуатируемым детям (NCMEC) наблюдается тревожный рост онлайн сексуальной эксплуатации детей. Значительная часть этой преступной деятельности все чаще включает в себя синтетический контент, созданный искусственным интеллектом. Годовой отчет CyberTipline NCMEC показывает поразительный прирост на 12% в сообщениях, перевалив за отметку в 36,2 миллиона, по сравнению с предыдущим годом.

Большинство этих подсказок касались распространения материалов о детском насилии, таких как фотографии и видео. Более того, заметен был рост сообщений о финансовом сексуальном шантаже детей и семей, которых манипулировали хищники, используя созданный искусственным интеллектом материал о сексуальном насилии над детьми (CSAM).

Представитель центра подчеркнул о приеме приблизительно 4 700 уведомлений, специально связанных с изображениями или видеоматериалами о сексуальном насилии над детьми, созданными искусственным интеллектом, указывая на серьезность этой нарастающей проблемы.

Приобретение базы данных показало, что в 2023 году сервис CyberTipline получил свыше 35,9 миллиона сигналов о подозрительных случаях CSAM, загруженных из-за пределов Соединенных Штатов, и более 90% из международных источников. Примерно 1,1 миллиона из этих предупреждений были переданы полиции в США, включая тревожное количество отчетов о неминуемой угрозе для ребенка.

Количество отчетов, связанных с онлайн-злоупотреблением (эксплуатацией) детей — это эксплуатативная практика, при которой лица контактируют с кем-то онлайн, предполагая, что это ребенок, с намерением совершить сексуальное преступление или похищение — взлетело на 300% до 186 000.

Статистика социальных платформ тревожно показывает, что Facebook лидирует с более чем 17,8 миллионами подсказок, за которым следуют Instagram и WhatsApp в зонте Meta, Google, Snapchat, TikTok и Twitter, все они вносят свой вклад в список сообщений, представленных NCMEC из около 245 компаний из 1 600 участвующих в программе кибер-сигналов.

NCMEC намекает на разрыв между огромным количеством сообщений, поданных, и их качеством. Центр и правоохранительные органы сталкиваются с проблемами, связанными с вмешательством в автоматическую подачу отчетов, включая те, которые генерируются алгоритмами модерации контента, которые могут, без участия человека, препятствовать полиции в просмотре возможных отчетов о детском насилии.

NCMEC подчеркивает, что ограниченное количество компаний, предоставляющих сведения, а также низкое качество многих отчетов сигнализирует о необходимости принятия законодательных и действий мирового технологического сообщества. Это важно для противодействия тревожной тенденции нарастающего онлайн-злоупотребления детьми.

Самые важные вопросы и ответы:

В: Как технология искусственного интеллекта влияет на всплеск онлайн-злоупотребления детьми?
О: Технология искусственного интеллекта способствует увеличению всплеска, создавая синтетический контент, такой как изображения или видео сексуального насилия над детьми, созданные искусственным интеллектом. Этот аспект усложняет обнаружение и уменьшение такого контента, потому что его труднее проследить и он может казаться более правдоподобным, чем традиционный, не созданный искусственным интеллектом материал.

В: Какие вызовы связаны с обнаружением и сообщением об AI-сгенерированных материалах о сексуальном насилии над детьми (CSAM)?
О: Одной из основных проблем является объем данных, который необходимо просматривать, так как он может перегрузить как технологические, так и человеческие ресурсы. Кроме того, трудно разграничить между AI-сгенерированным и законным контентом, что может привести как к ложным отрицательным результатам (невозможности определить CSAM), так и ложным положительным результатам (ложно определять законный контент как CSAM). Автоматизированные системы отчетности также могут порождать большое число отчетов, лишенных качества и конкретной информации, необходимой для действенного воздействия полиции.

Основные вызовы или спорные вопросы:
Одним из ключевых вызовов является балансирование прав на конфиденциальность с необходимостью эффективного мониторинга и механизмов сообщения. Имеется также спорный вопрос о ответственности онлайн-платформ в контроле за своим контентом и в какой степени они должны нести ответственность за генерируемый пользователями контент. Еще одним вопросом является обеспечение того, чтобы технология искусственного интеллекта, используемая в обнаружении, шагала в ногу с технологией искусственного интеллекта, используемой для создания эксплуатационно синтетического контента.

Преимущества и недостатки:

Преимущества:
— AI может быстро просматривать большие объемы онлайн-контента на предмет возможного CSAM, что делает обнаружение гораздо эффективнее, чем ручные процессы.
— AI может непрерывно работать, обнаруживая и сообщая об CSAM круглосуточно.
— Технологические компании могут использовать AI для активной реализации своих условий обслуживания, идентифицируя и удаляя эксплуатационный контент.

Недостатки:
— AI может случайно помечать незлоупотребительный контент, ведущий к цензуре или нарушению конфиденциальности.
— Сложный AI-сгенерированный CSAM может легче избегать обнаружения, чем контент, созданный традиционными способами.
— Хищники могут использовать AI для более эффективной работы с целью выбора жертв через знакомство и манипуляцию.

Ссылки по теме:
Национальный центр по пропавшим и эксплуатируемым детям
Facebook
Instagram
WhatsApp
Google
Snapchat
TikTok
Twitter

Каждую ссылку следует проверить, чтобы убедиться, что она действительна и ведет на основной домен соответствующей организации или социальной платформы. Приведенные здесь URL-адреса относятся к службам, которыми известно пользуются миллионы людей по всему миру и имеют отношение к теме онлайн-эксплуатации детей.

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact