Artificiell Intelligens Skapar Fotorealistiska Videor från Textbeskrivningar

OpenAI har nyligen avslöjat sitt senaste AI-system, Sora, som har förmågan att generera fotorealistiska videor baserat på textbeskrivningar. Denna banbrytande videogenereringsmodell har väckt både spänning kring framsteg inom AI-teknologi och oro för potentialen för deepfake-videor att sprida desinformation under avgörande globala händelser, som val.

Sora, för närvarande kapabel att producera videor upp till 60 sekunder i längd, använder antingen textinstruktioner eller en kombination av text och bilder för att skapa fantastiska visuella sekvenser. En imponerande demonstrationsvideo börjar med en beskrivning av en elegant kvinna som promenerar längs en gata i Tokyo smyckad med varma neonskyltar och animerade stadsskyltar. Andra exempel inkluderar en lekfull hund i snön, fordon som färdas på vägar och till och med fantastiska scenarier som hajar som simmar bland stadens skyskrapor.

Videogenerationen med hjälp av AI är ett betydande steg framåt när det gäller realism och tillgänglighet. Rachel Tobac, medgrundare av SocialProof Security, hyllar Sora som ”en storleksordning mer trovärdig och mindre tecknad” än dess föregångare. Genom att kombinera två olika AI-tekniker uppnår Sora en högre autentisk nivå. Den första tekniken, en diffusionmodell liknande OpenAI:s DALL-E-bildgenerator, omvandlar gradvis slumpmässiga bildpixlar till sammanhängande visuella bilder. Den andra tekniken, kallad ”transformerarkitektur”, kontextualiserar och sätter samman sekventiella data, på samma sätt som språkmodeller konstruerar meningar.

Trots sina framsteg uppvisar Soras videor fortfarande ibland fel, såsom byten av ben, svävande stolar eller kakor som mirakulöst förlorar bettavtryck. Att upptäcka sådana fel antyder att deepfake-videor av denna art fortfarande är identifierbara i komplexa scener med höga rörelsenivåer. Dock varnar experter för att samhället kommer behöva hitta alternativa sätt att anpassa sig i takt med att tekniken utvecklas.

OpenAI genomför rigorösa ”röda lag” -övningar för att utvärdera Soras sårbarheter innan den görs offentligt tillgänglig. Dessa tester involverar domänexperter med erfarenhet av att hantera desinformation, hatfullt innehåll och partiskhet. Eftersom deepfake-videor har potential att lura intet ont anande personer, är det avgörande att vara proaktiv i att motverka deras inverkan. Samarbetet mellan AI-företag, sociala medieplattformar och regeringar kommer att spela en avgörande roll för att mildra riskerna förknippade med det omfattande användandet av AI-genererat innehåll. Att implementera unika identifierare eller ”vattenstämplar” för AI-genererade videor kan visa sig vara en effektiv försvarsmetod.

Även om OpenAI inte har avslöjat specifika planer för Soras tillgänglighet år 2024, betonar företaget vikten av att vidta betydande säkerhetsåtgärder innan dess lansering. Automatiserade processer är redan på plats för att förhindra generering av extremt våld, sexuellt innehåll, hatfulla bilder och avbildningar av riktiga politiker eller kändisar. Dessa försiktighetsåtgärder är särskilt relevanta i takt med att allt fler personer deltar i val, vilket gör säkerheten och integriteten av digitalt innehåll till en hög prioritet.

Vanliga Frågor:

The source of the article is from the blog foodnext.nl

Privacy policy
Contact