Глобальные технологические гиганты обязуются защищать детей от контента, созданного искусственным интеллектом, исключающего их эксплуатацию.

Индустрия лидеров обещает защиту несовершеннолетних в развитии ИИ

В рамках революционного союза ключевые игроки технологической отрасли, такие как OpenAI, Microsoft, Google и Meta, обязались к соблюдению устава, гарантирующего, что их средства искусственного интеллекта не способствуют эксплуатации детей, в частности в производстве и распространении материала о сексуальном насилии над детьми (CSAM). Это заявление стало ключевым в борьбе против цифровой эксплуатации несовершеннолетних, устанавливая новый этический стандарт в технологической отрасли.

Объединив усилия в борьбе против эксплуатации детей

Организация защиты прав человека Thorn, совместно с общественной группой All Tech Is Human, взяли на себя руководство в этой инициативе, направленной на этическое внедрение технологических новинок. Целью является предотвращение создания содержания, участвующего детей, и устранение такого контента из социальных сетей и поисковиков. Срочность инициативы подчеркивается тревожной цифрой, объявленной за 2023 год, где только в Соединенных Штатах было обнаружено более 104 миллионов файлов, свидетельствующих о сексуальном насилии над детьми.

Профилактические стратегии и рекомендации для разработчиков ИИ

Thorn и All Tech Is Human опубликовали документ под названием «Безопасность через дизайн для генеративного ИИ: предотвращение сексуального насилия над детьми», в котором описываются стратегии и рекомендации для разработчиков искусственного интеллекта. В документе предлагается избегать наборов данных, включающих случаи сексуального насилия и контент для взрослых, так как это может ненамеренно обучить ИИ модели соединять их. Более того, социальные медиаплатформы и поисковики умоляются избавиться от ссылок, ведущих на сайты или приложения, способствующие показу голого несовершеннолетнего.

Технологические указания для безопасного будущего

Ребекка Портнофф, вице-президент по науке данных в Thorn, выразила твердую волю перенаправить траекторию развития ИИ к не-вредоносному использованию. Несколько компаний уже согласились разделять изображения, видео и аудио, связанные с детьми, от наборов данных для взрослых, чтобы предотвратить проблемное слияние во время обучения ИИ моделей. Исследуются альтернативы, такие как водяные знаки, однако остаются опасения относительно их надежности из-за легкости удаления водяных знаков и метаданных.

Помимо этих усилий, украинская общественная организация «Магнолия», в партнерстве с Министерством цифрового преобразования и отделом киберполиции, запустила онлайн-платформу StopCrime. Это средство позволяет людям сообщать о встреченном онлайн-контенте, проявляющем признаки насилия над детьми, способствуя расширению спектра защитных мер.

Через эти проактивные шаги технологическая отрасль принимает решительную позицию в обеспечении благополучия и безопасности детей в эпоху генеративного ИИ.

The source of the article is from the blog rugbynews.at

Privacy policy
Contact