Microsofto dirbtinis intelektas kuria hiperrealistinius vaizdo klipus iš nuotraukų ir garso.

Tyrimai „Microsoft“ tyrėjai sukūrė dirbtinio intelekto įrankį, gebantį generuoti labai realistiškus vaizdo seka iš vienos veido nuotraukos ir balso įrašo. Šią atskleidimą pateikė technologijų titanas išleidęs šią savaitę dokumentą. Įrankis, žinomas kaip VASA-1, sukuria potencialias įvairias piktnaudžiavimo scenarijų. Tačiau „Microsoft“ aiškina, kad jų tyrimai sutelkti į emocinės išraiškos įgūdžių kūrimą dirbtiniam intelektui veidams, siekiant skatinti teigiamas taikymo sritis, ne kuriamas turinys skirtas apgaulės ar dezinformacijos tikslais. Nepaisant paveldėtų pavojų, kylančių iš turinio kūrimo technologijų, potencialus piktnaudžiavimo pavojus išlieka.

„Microsoft“ įsivaizduoja VASA-1 ne kaip deepfake generatorių, o kaip transformacinį modelį, galintį pagerinti bendravimo prieinamumą asmenims su kalbos ir komunikacijos iššūkiais. Įrankis galėtų teikti palydovavimą ar terapinę paramą tiems, kurie to reikia. Nors VASA-1 dar neveikia, jis įamžina ne tik lūpų sinchronizavimo poreikius, bet ir sugeria smulkius emocinius išsireiškimus ir veido niuansus. „Microsoft“ dar nenurodė, kada ar kaip šis įrankis bus prieinamas vartotojams ar kūrėjams.

Pagrindinės klausimai ir atsakymai:

K: Kokie yra VASA-1, „Microsoft“ AI įrankio, potencialūs teigiami taikymo atvejai?
A: „Microsoft“ AI įrankis, VASA-1, gali pagerinti bendravimo prieinamumą asmenims su kalbos ir komunikacijos sunkumais, teikti palydovavimą ar terapinę paramą, plėsti video susirinkimus su išraiškingesniais avatarais, ir tarnauti švietimo tikslams kuriant interaktyvesnius mokymo priemones.

K: Kokie iššūkiai ar kontroversijos susijusios su VASA-1?
A: Pagrindinis iššūkis susijęs su VASA-1, kaip ir panašiais AI technologijomis, yra potencialus jos piktnaudžiavimas kuriant deepfake turinį, kuris galėtų plisti dezinformacija ar būti panaudojamas apgaulės tikslais. Tikrinti etišką technologijos naudojimą, valdyti piktnaudžiavimo rizikas ir kurti aptikimo metodus AI sukurtam turiniui yra svarbūs iššūkiai.

K: Kaip VASA-1 skiriasi nuo esamų deepfake ar vaizdo sintezės technologijų?
A: Skirtingai nei paprastos deepfake ar lūpų sinchronizavimo technologijos, VASA-1 suprojektuotas sugauti ir atkartoti smulkius emocinius išsireiškimus ir veido niuansus, todėl išvestis tampa daug realistiškesnė ir išraiškingesnė, leisdama dinamiškesniam ir emocingiau rezonuojančiam sąveikavimui.

Privalumai ir trūkumai:

Privalumai:
– Leidžia geresnį įtraukimą ir prieinamumą bendravimui tiems, turintiems negalią ar kalbos sutrikimus.
– Galėtų būti naudojamas teigiamiems terapiniams ir švietimo tikslams.
– Pažanga AI srityje gali lemti naujoves įvairiose kitose technologijose ir pramonės srityse.

Trūkumai:
– Rizika piktnaudžiauti kuriama deepfake turiniu, kuris gali susilpninti pasitikėjimą žiniasklaida.
– Iššūkiai nustatant tikrąjį turinį nuo AI sukurto turinio, kuris galėtų būti išnaudojamas sukčiavimui ar dezinformacijai.
– Etiški klausimai dėl privatumo ir sutikimo kai naudojami asmeniniai paveikslai ir balsai.

Atkreipkite dėmesį, kad nors „Microsoft“ AI įrankio tema glaudžiai susijusi su deepfake technologija, „Microsoft“ tyrimų pagrindinis tikslas yra kurti teigiamus taikymus ir jie aktyviai priešinasi, kad įrankis būtų naudojamas apgaulės tikslais.

Norėdami būti informuoti apie „Microsoft“ ir jų projektus, galite apsilankyti Microsoft oficialiame tinklalapyje. Nepamirškite naudoti patikimų šaltinių ir sekti naujausias naujienas ir diskusijas dirbtinio intelekto srityje, kad užtikrintumėte išsamią supratimą.

The source of the article is from the blog elperiodicodearanjuez.es

Privacy policy
Contact