Сора: Инструмент ИИ, меняющий правила игры с потенциальными рисками

Сора, новейший инструмент текст в видео, разработанный OpenAI, вызывает интерес в области генеративного искусственного интеллекта. Несмотря на то, что технология, лежащая в основе Соры, безусловно революционна, эксперты высказали опасения относительно ее потенциала создавать дипфейки видео, утверждающие расовые и гендерные стереотипы.

В отличие от предшественника ChatGPT, Сора берет текстовые запросы и превращает их в одниминутные видео. OpenAI описывает Сору как способную создавать сложные сцены, включающие несколько персонажей, конкретное движение и точные детали предмета и фона. Реализм инструмента достигается за счет комбинации двух подходов ИИ. Первый — использование моделей диффузии, таких как DALLE-E, которые преобразуют случайные пиксели изображения в согласованные визуальные образы. Второй подход — «трансформерная архитектура», используемая для контекстуализации и сборки последовательных данных.

В настоящее время доступ к Соре ограничен выбранной группе художников, кинорежиссеров и дизайнеров, однако есть признаки того, что в ближайшем будущем будет создана очередь ожидания для более широкого доступа. Лица, получившие доступ, известные как члены «красной команды», обладают опытом в областях дезинформации, ненавистного контента и предвзятости, чтобы лучше понять риски, связанные с инструментом.

OpenAI признает потенциальные риски, связанные с Сорой, и заверяет пользователей, что они принимают меры по борьбе с вводящими в заблуждение контентом. Они планируют разработать классификатор обнаружения, способный распознавать видео, созданные Сорой, и адаптировать существующие процедуры безопасности из инструментов, таких как DALLE3. Компания говорит, что они внедрили надежные классификаторы изображений для проверки каждого кадра созданных видео перед предоставлением доступа.

Несмотря на то, что OpenAI стремится делиться своими исследовательскими успехами и получать обратную связь от внешних партнеров, доступ к инструменту для публики остается неопределенным. Продолжают возникать опасения относительно создания дипфейковых видео, подкрепляющих негативные стереотипы. Дезинформация и ложная информация, основанные на контенте, созданном с использованием ИИ, остаются значительными проблемами в различных отраслях.

Сора представляет собой поворотный момент в области генеративного искусственного интеллекта. По мере увеличения доступности OpenAI должен приоритизировать смягчение рисков, связанных с потенциальным злоупотреблением этой мощной технологией.

Часто задаваемые вопросы:

1. Что такое Сора?
— Сора — это инструмент текст в видео, разработанный OpenAI, который может преобразовывать текстовые запросы в одниминутные видео.

2. Как Сора достигает высокого уровня реализма в созданных видео?
— Сора сочетает два подхода ИИ: модели диффузии, такие как DALLE-E, которые преобразуют случайные пиксели изображения в согласованные визуальные образы, и «трансформерная архитектура», которая контекстуализирует и собирает последовательные данные.

3. Кто в настоящее время имеет доступ к Соре?
— Доступ к Соре в настоящее время ограничен выбранной группе художников, кинорежиссеров и дизайнеров, которые известны как члены «красной команды».

4. Будет ли доступ к Соре расширен в будущем?
— Есть признаки того, что OpenAI может создать очередь ожидания для более широкого доступа к Соре в ближайшем будущем.

5. Какие меры принимает OpenAI для борьбы с вводящими в заблуждение контентом, созданным Сорой?
— OpenAI планирует разработать классификатор обнаружения, специально созданный для распознавания видео, созданных Сорой. Они также адаптируют существующие процедуры безопасности из инструментов, таких как DALLE3, и внедрят надежные классификаторы изображений для проверки каждого кадра созданных видео.

6. Осведомлен ли OpenAI о потенциальных рисках, связанных с Сорой?
— Да, OpenAI признает потенциальные риски, создаваемые Сорой, и активно работает над их уменьшением. Они обращаются к лицам с экспертизой в областях, таких как дезинформация, ненавистный контент и предвзятость, чтобы лучше понять и решить риски.

Определения:

— Генеративный ИИ: Относится к системам или моделям ИИ, способным создавать новый контент, такой как текст, изображения или видео, на основе заданных входных данных или запросов.
— Дипфейковые видео: Видео, созданные или модифицируемые с использованием ИИ, чтобы создать впечатление, что кто-то сказал или сделал что-то, чего они на самом деле не говорили или не делали, обычно путем замены лиц или изменения голоса.

Связанная ссылка:

OpenAI

The source of the article is from the blog toumai.es

Privacy policy
Contact