Videofilmas fotoreālistu radīšana no teksta apraksti

OpenAI nesen ir atklājis savu jaunāko AI sistēmu, Sora, kas spēj radīt fotoreālistas video, pamatojoties uz teksta aprakstiem. Šī pārmaiņu videofilmu ģenerēšanas modelis ir izraisījis gan sajūsmu par AI tehnoloģiju attīstību, gan bažas par deepfake video potenciālu izplatīt dezinformāciju un desinformāciju kritiskos globālos notikumos, piemēram, vēlēšanās.

Sora, kas pašlaik spēj radīt video līdz 60 sekunžu garumā, izmanto gan teksta norādes, gan teksta un attēlu kombināciju, lai radītu pārsteidzošus vizuālus sērijas. Viena iespaidīga demonstrācijas video sākas ar norādi par stilīgu sievieti, kas pastaigājas pa Tokijas ielu, kuras rotā silti neona gaismas un animētas pilsētas zīmes. Citas piemēru ietverj rotāko suns sniegā, transportlīdzekļi ceļojot pa ceļiem, un pat fantastiskus scenārijus, piemēram, haizivis, kas peld starp pilsētas debeskrāpjiem.

AI vadītās videofilmu ģenerēšanas ir nozīmīgs solis uz priekšu gan saistībā ar reālismu, gan pieejamību. Rachel Tobac, SocialProof Security dibinātāja, Sora uzslavē kā “rindas lielumē ticamāku un mazāk karikatūrālu” nekā tā priekšteces. Saskaņojot divas atšķirīgas AI tehnikas, Sora sasniedz augstāku autentiskuma līmeni. Pirmā tehnika, difūzijas modelis līdzīgs OpenAI DALL-E attēla ģeneratoram, pakāpeniski pārveido gadījuma attēla pikseļus saprotamos vizuālos. Otra tehnika, ko sauc par “transformatora arhitektūru”, kontekstualizē un sapulcē secīgus datus, līdzīgi tam, kā valodas modeļi konstruē teikumus.

Neskatoties uz tās attīstību, Sora video joprojām parāda periodiskus kļūdas, piemēram, kājas maiņu, levitējošus krēslus vai cepumus, kas brīnumaini zaudē kociņa zīmes. Šādu kļūdu atklāšana liecina, ka šādas dabas deepfake video paliek identificējamas sarežģītos skatienos ar augstu kustības līmeni. Tomēr eksperti brīdina, ka, jo tehnoloģijas attīstās, sabiedrībai būs jāatrod alternatīvas pielāgošanās veidus.

OpenAI veic stingrus “sarkanās komandas” vingrinājumus, lai novērtētu Sora neaizsargātību pirms tās publisko pieejamības. Šie testi ietver nozares ekspertus ar pieredzi dezinformācijas, naida saturu un tendenču apstrādē. Tā kā deepfake video var mānīt nesagatavotas personas, ir būtiski proaktīvi pret tādu ietekmi. Sadarbība starp AI uzņēmumiem, sociālo tīklu platformām un valdībām spēlēs nozīmīgu lomu risku mazināšanā, kas saistīti ar plašu AI-generēto saturu. Unikālu identifikatoru vai “ūdenszīmju” ieviešana AI radītiem videoklipiem var izrādīties efektīva aizsardzības stratēģija.

Lai arī OpenAI pagaidām nav atklājusi konkrētas plānus attiecībā uz Sora pieejamību 2024. gadā, uzņēmums uzsvēra būtiskas drošības pasākumus pirms tā izlaišanas. Automatizētie procesi jau ir ieviesti, lai novērstu ekstrēmas vardarbības, seksuāla rakstura saturu, naidīgus attēlus un reālo politiķu vai slavenību attēlojumus. Šie piesardzības pasākumi ir īpaši nozīmīgi, jo arvien vairāk cilvēku piedalās vēlēšanās, padarot digitālā satura drošību un integritāti par galveno prioritāti.

The source of the article is from the blog karacasanime.com.ve

Privacy policy
Contact