Сора: Иновативен AI Инструмент с потенциални рискове

Сора, най-новият инструмент за превръщане на текст в видео, разработен от OpenAI, вълнува в света на генеративния изкуствен интелект. Въпреки че технологията зад Сора е безспорно новаторска, експертите изразяват загриженост относно неговия потенциал да създаде deepfake видеа, които подхранват расови и полови стереотипи.

За разлика от предшественика си ChatGPT, Сора взема текстови инструкции и ги преобразува в едноминутни видеоклипове. OpenAI описва Сора като инструмент, който има способността да генерира сложни сцени, включващи множество герои, конкретно движение и точни детайли за обекта и фона. Високото ниво на реализъм на инструмента се постига чрез комбинация от два подхода на изкуствения интелект. Първият е използването на модели на дифузия, като DALLE-E, които преобразуват рандомизирани пиксели на изображения в свързани визуални ефекти. Вторият подход е ‘трансформаторната архитектура’, използвана за контекстуализиране и сглобяване на последователни данни.

Въпреки че достъпът до Сора в момента е ограничен до селекция от визуални артисти, режисьори и дизайнери, има показания, че ще бъде създаден списък с чакащи за по-широк достъп в близко бъдеще. Лицата, които имат достъп, наречени членове на червения екип, разполагат с експертиза в области като разпространение на дезинформация, омразно съдържание и предразсъдъци, за да разберат по-добре рисковете, свързани с инструмента.

OpenAI признава потенциалните рискове, представяни от Сора, и уверява потребителите, че предприемат мерки за борба с измамното съдържание. Планират да разработят детекторен класификатор, способен да разпознава видеоклипове, създадени от Сора, и ще приспособят съществуващите процедури за безопасност от инструменти като DALLE3. Компанията казва, че са внедрили устойчиви класификатори на изображения, за да преглеждат всеки кадър от генерираните видеоклипове преди да се предостави достъп.

Въпреки че OpenAI цели да сподели напредъка на своите изследвания и да получи обратна връзка от външни партньори, достъпът на обществеността до инструмента остава неизвестен. Загриженостите относно създаването на deepfake видеа, които засилват отрицателни стереотипи, продължават да бъдат повдигани. Дезинформацията, основана на съдържание, генерирано от изкуствен интелект, остава значителна загриженост в различни отрасли.

Сора представлява парадигматичен преобразуващ инструмент в областта на генеративния изкуствен интелект. С нарастването на достъпността му, OpenAI трябва да даде приоритет на ограничаването на рисковете, свързани с потенциалното злоупотребяване на тази мощна технология.

Често задавани въпроси:

1. Какво е Сора?
– Сора e инструмент за превръщане на текст в видео, разработен от OpenAI, който може да трансформира текстови инструкции в едноминутни видеоклипове.

2. Как Сора постига високо ниво на реализъм в генерираните видеоклипове?
– Сора комбинира два подхода на изкуствения интелект: модели на дифузия като DALLE-E, които преобразуват рандомизирани пиксели на изображения в свързани визуални ефекти, и ‘трансформаторната архитектура’, която контекстуализира и сглобява последователни данни.

3. Кой в момента има достъп до Сора?
– Достъпът до Сора в момента е ограничен до селекция от визуални артисти, режисьори и дизайнери, които се наричат членове на червения екип.

4. Ще бъде ли разширен достъпът до Сора в бъдеще?
– Има показания, че OpenAI може да създаде списък с чакащи за по-широк достъп до Сора в близко бъдеще.

5. Какви мерки предприема OpenAI за борба с измамното съдържание, генерирано от Сора?
– OpenAI планира да разработи детекторен класификатор, специално създаден за разпознаване на видеоклипове, създадени от Сора. Те също ще приспособят съществуващите процедури за безопасност от инструменти като DALLE3 и ще внедрят устойчиви класификатори на изображения, за да преглеждат всеки кадър от генерираните видеоклипове.

6. Знае ли OpenAI за потенциалните рискове, свързани с Сора?
– Да, OpenAI признава потенциалните рискове, представени от Сора, и активно работи за да ги намалява. Те търсят експертност от лица с познания в области като разпространение на дезинформация, омразно съдържание и предразсъдъци, за да разберат и адресират по-добре рисковете.

Дефиниции:
– Генеративен AI: Отнася се до AI системи или модели, които са способни да създават ново съдържание, като текст, изображения или видеоклипове, на базата на даден вход или инструкции.
– Deepfake видеа: Видеоклипове, които са създадени или манипулирани с помощта на изкуствен интелект, за да направят така, че изглежда, че някой каза или направи нещо, което той фактически не е казал или направил, обикновено чрез смяна на лица или промяна на гласа.

Свързан Линк:
OpenAI

The source of the article is from the blog exofeed.nl

Privacy policy
Contact