Изкуствен интелект създава фотореалистични видеоклипове от текстови описания

На скоро OpenAI разкри най-новата си система на изкуствения интелект, наречена Sora, която има способността да генерира фотореалистични видеоклипове, базирани на текстови описания. Тази революционна модел за генериране на видеоклипове поражда както вълнение за напредъка на технологиите на изкуствения интелект, така и загриженост за възможността за разпространение на дезинформация и дезинформация по време на важни световни събития, като изборите.

В момента Sora е способна да произвежда видеоклипове с дължина до 60 секунди, като използва текстови инструкции или комбинация от текст и изображения, за да създаде впечатляващи визуални последователности. Един впечатляващ демонстрационен видеоклип започва с текстово описание на стилна жена, която се разхожда по улиците на Токио, украсени с топли неонови светлини и анимирани градски знаци. Други примери включват игриво куче в сняг, автомобили, пътуващи по пътища, и дори фантастични сценарии като акули, плуващи сред градските небостъргачи.

Генерирането на видеоклипове с помощта на изкуствения интелект е значителен скок напред в областта на реализма и достъпността. Рейчъл Тобак, съосновател на SocialProof Security, оценява Sora като „редовна по големина и по-малко комична“ от предшествениците си. Чрез комбинирането на две различни техники на изкуствения интелект, Sora постига по-високо ниво на автентичност. Първата техника, дифузионен модел, подобен на генератора на изображения DALL-E на OpenAI, постепенно трансформира случайни пиксели на изображението в целостни визуални ефекти. Втората техника, наречена „трансформаторна архитектура“, контекстуализира и сглобява последователни данни, подобно на това как езиковите модели конструират изречения.

Въпреки напредъка си, видеоклиповете на Sora все още показват случайни грешки, като разместване на крака, летящи столове или печива, чудесно изчезващи отпечатъци на зъби. Откриването на такива пропуски подсказва, че дезинформационните видеоклипове от този тип продължават да бъдат идентифицируеми в сложни сцени с високо ниво на движение. Въпреки това експертите предупреждават, че с развитието на технологиите обществото ще трябва да намери алтернативни начини за приспособяване.

OpenAI провежда строги „червени екипи“ упражнения, за да оцени уязвимостите на Sora, преди да я направи обществено достъпна. Тези тестове включват домейни експерти с опит в борбата с дезинформация, омразно съдържание и предубеждения. Тъй като дезинформационните видеоклипове имат потенциала да измамят недомислени хора, е от съществено значение да се действа проактивно в борбата с тяхното въздействие. Сътрудничеството между компаниите за изкуствен интелект, социалните медии и правителствата ще играе важна роля за намаляване на рисковете, свързани с широкото използване на съдържание, генерирано от изкуствен интелект. Прилагането на уникални идентификатори или „водни жигове“ за видеоклиповете, създадени от изкуствения интелект, може да се окаже ефективна стратегия за защита.

Въпреки че OpenAI не е разкрила конкретни планове за наличността на Sora през 2024 година, компанията подчертава важността на вземането на значителни мерки за безопасност преди нейното пускане на пазара. Вече са внедрени автоматизирани процеси, които предотвратяват генерирането на екстремно насилие, сексуално съдържание, омразно изображение и изображения на реални политици или знаменитости. Тези предпазни мерки са особено важни, тъй като все по-голям брой хора участват в изборите, като осигуряването на сигурността и интегритета на цифровото съдържание става приоритет номер едно.

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact