Растущие опасения: Влияние искусственного интеллекта на эксплуатацию детей

Продвижение технологии искусственного интеллекта (ИИ) привело к многочисленным преимуществам и достижениям в различных отраслях. Однако, в связи с этим прогрессом, появилась и темная сторона ИИ, поскольку эксперты по безопасности детей и исследователи предупреждают о потенциальных рисках, которые он несет в усугублении онлайн-эксплуатации.

По данным Национального центра по поиску и предотвращению похищения и эксплуатации детей (NCMEC) США, в прошлом году поступило 4700 сообщений о контенте, созданном с использованием ИИ, на котором изображена сексуальная эксплуатация детей. Эта тревожная цифра указывает на возникновение проблемы, которая ожидается будет расти по мере развития технологии ИИ.

В то время как NCMEC еще не раскрыл общее количество сообщений о детском насилии, поступивших от всех источников в 2023 году, организация сообщила, что только в 2022 году она получила приблизительно 88,3 миллиона файлов. Эти сообщения поступают от самих компаний, работающих в области генерации ИИ, онлайн-платформ и от людей, натыкающихся на такой тревожный контент.

Признавая неотложную необходимость в решении этой проблемы, NCMEC играет ключевую роль в качестве национального центра для сообщений о детском насилии правоохранительным органам. Джон Шехан, старший вице-президент NCMEC, подчеркнул, что эксплуатация детей, облегчаемая ИИ, вполне реальна.

Недавно генеральные директоры Meta Platforms, X, TikTok, Snap и Discord были допрошены на слушаниях в Сенате, посвященных безопасности детей в онлайне. Законодатели расследовали усилия этих компаний социальных сетей и мессенджеров по защите детей от интернет-хищников.

Исследователи из Stanford Internet Observatory в июне опубликовали доклад, в котором отметили беспокоящий потенциал злоумышленников использовать генеративный ИИ для создания новых изображений, тесно напоминающих настоящих детей. По мере того, как эти материалы, созданные с помощью ИИ, становятся все более фотореалистичными, отличить настоящих жертв от созданных ИИ ставится серьезной проблемой.

Для борьбы с этой растущей проблемой OpenAI, организация, стоящая за популярным ChatGPT, запустила систему передачи сообщений в NCMEC. Кроме того, идут переговоры между NCMEC и другими компаниями, работающими в области генерации ИИ, для установления подобных мер.

Рост ИИ приносит как инновации, так и ответственность. Поскольку общество продолжает принимать технологию ИИ, важно оставаться бдительными по отношению к возникающим проблемам, чтобы обеспечить безопасность уязвимых людей, особенно детей.

ЧАВО:

В: Что такое темная сторона ИИ?
О: Темная сторона ИИ относится к потенциальным рискам и негативным последствиям технологии искусственного интеллекта, особенно в усугублении онлайн-эксплуатации.

В: Сколько было сообщений в прошлом году, касающихся созданного ИИ контента, изображающего сексуальную эксплуатацию детей?
О: По данным NCMEC, в прошлом году поступило 4700 сообщений, касающихся созданного ИИ контента, изображающего сексуальную эксплуатацию детей.

В: Сколько файлов NCMEC получило в 2022 году связанных с контентом детского насилия?
О: NCMEC получило примерно 88,3 миллиона файлов только в 2022 году, связанных с контентом детского насилия.

В: Какая роль у NCMEC в решении этой проблемы?
О: NCMEC играет важную роль в качестве национального центра для сообщений о контенте, связанном с детским насилием, правоохранительным органам.

В: Какие компании социальных сетей и мессенджеров получили вопросы на слушаниях в Сенате по безопасности детей в онлайне?
О: Генеральные директоры Meta Platforms, X, TikTok, Snap и Discord были допрошены на слушаниях в Сенате по безопасности детей в онлайне.

В: Что отметил доклад Stanford Internet Observatory?
О: Доклад Stanford Internet Observatory отметил беспокоящий потенциал злоумышленников использовать генеративный ИИ для создания новых изображений, тесно напоминающих настоящих детей.

В: Какие меры приняли OpenAI и другие компании, работающие в области генерации ИИ, для борьбы с этой проблемой?
О: OpenAI создала систему для передачи сообщений в NCMEC, и ведутся переговоры между NCMEC и другими компаниями, работающими в области генерации ИИ, для установления подобных мер.

Определения:

— Искусственный интеллект (ИИ): Технология, позволяющая машинам выполнять задачи, требующие человеческого интеллекта.

— Контент сексуального насилия над детьми: Контент, изображающий сексуальную эксплуатацию или насилие над детьми.

— Генеративный ИИ: Искусственный интеллект, способный генерировать новые данные или контент, такие как изображения или текст.

— NCMEC (Национальный центр по поиску и предотвращению похищения и эксплуатации детей): Национальная организация, занимающаяся предотвращением похищения детей, сексуальной эксплуатацией и поиском пропавших детей.

— Компании социальных сетей и мессенджеров: Компании, предоставляющие онлайн-платформы и сервисы для пользователей для связи, общения и обмена контентом с другими людьми.

Предлагаемые связи:
Национальный центр по поиску и предотвращению похищения и эксплуатации детей
OpenAI
Стефанфордский университет

The source of the article is from the blog papodemusica.com

Privacy policy
Contact