Искусственный интеллект соцсетей затрудняет полицейское расследование дел о сексуальном насилии над детьми

Недавнее расследование, проведенное The Guardian, показало, что компании соцсетей, полагающиеся на программное обеспечение искусственного интеллекта (ИИ) для модерации своих платформ, создают неприемлемые доклады о случаях сексуального насилия над детьми, затрудняя расследования полиции США и задержку выявления потенциальных хищников. Эти компании обязаны по закону сообщать о любых материалах, связанных с сексуальным насилием над детьми, обнаруженных на их платформах, на Национальный центр по пропавшим и эксплуатируемым детям (NCMEC), который затем передает полученные данные соответствующим правоохранительным органам.

В 2022 году NCMEC получил более 32 миллионов докладов о подозрительном сексуальном эксплуатации детей, причем Meta является крупнейшим отправителем, отвечающим за более чем 27 миллионов докладов. Однако использование ИИ-генерированных докладов представляет существенную проблему для правоохранительных органов. Из-за защиты четвёртой поправки, офицеры и NCMEC не имеют права открывать доклады без ордера на обыск, если только сотрудник соцсети не просмотрел их содержание. Это юридическое требование приводит к задержкам на несколько недель, что позволяет потерять потенциальные доказательства и подозреваемые оставаться нераскрытыми дольше.

Эксперты по вопросам безопасности детей и адвокаты выразили беспокойство о негативном влиянии этих задержек на общую безопасность. Расследования затягиваются, и правоохранительным органам не удается принять немедленные меры для защиты потенциальных жертв. В некоторых случаях компании соцсетей даже отключают учетные записи пользователей после подачи доклада, что может привести к удалению важных доказательств с их серверов.

ИИ-генерированные подсказки часто не расследуются, потому что они не содержат достаточной информации, необходимой для получения ордера на обыск. Это возлагает дополнительную нагрузку на уже перегруженные правоохранительные органы, у которых нет необходимых ресурсов для приоритизации этих подсказок.

Полагаться на ИИ для модерации контента эксперты считают недостаточным решением. Хотя ИИ может помочь снизить нагрузку на сотрудников правоохранительных органов, он не может заменить необходимость в человеческом вмешательстве. Как отметил прокурор из Массачусетса, ИИ может не способен определить новый материал о детском насилии и может только анализировать существующие данные. Важность человеческого просмотра нельзя недооценивать в случае подобных чувствительных дел.

Текущая ситуация вызвала опасения относительно эффективности ИИ-модерации и необходимости увеличения ресурсов и поддержки для правоохранительных органов в борьбе с растущей проблемой сексуального насилия над детьми в сети.

The source of the article is from the blog enp.gr

Privacy policy
Contact