Microsoft sin VASA-1 neurale nettverk lagar realistiske deepfakes

Microsoft har gjort framsteg innanfor kunstig intelligens med si siste innføring, VASA-1 nevralt nettverk. Dette avanserte AI-systemet er designet for å generere livaktige deepfakes, komplett med synkroniserte leppembevegelser og lyd, og det kan gjøre dette ved jevne 40 bilder per sekund. Ved å laste opp et bilde og en lydspor, kan brukerne motta videoer som viser et spekter av naturlige ansiktsuttrykk og emosjoner.

Teknologiens evne til å kontrollere genereringsdetaljer er unik. For eksempel kan brukere justere følelsesmessige uttrykk, kameravinkel og til og med motivets blikkretning. Imidlertid avslører en nærmere undersøkelse subtile avvik som uskarpe ansiktsuttrykk og lepper som ikke er helt synkronisert med lyden, noe som indikerer et behov for forbedringer i nevralt nettverks evner.

Cybersecurity-eksperter anerkjenner de potensielle farene knyttet til denne teknologien, spesielt for sårbare grupper som barn og eldre. Integreringen av Microsofts nevrale nettverk med talegenererende AI som OpenAI’s, kunne åpne nye veier for bedrageri. Ifølge Alexey Khahunov fra Dbrain og AI Happens Telegram-kanalen, har fremveksten av slike teknologier ført til et «våpenkappløp» blant selskapene i AI-sektoren.

Samtidig advarer Evgeny Tsarev fra RTM Group, en autoritet på IT-rett og informasjonssikkerhet, om at vi bør være forsiktige med videoer som viser oss selv, da de kan være fabrikert av svindlere. Som et svar på denne bekymringen for forbrukernes sikkerhet, har Microsoft ennå ikke bestemt seg for å lansere produktet på markedet, fullt klar over de etiske implikasjonene det innebærer.

Viktige spørsmål:

1. Hva er VASA-1 og hva kan den gjøre?
VASA-1 er et kunstig intelligens nevralt nettverk skapt av Microsoft som genererer realistiske deepfakes med synkroniserte leppembevegelser og lyd, og er i stand til å skildre ulike ansiktsuttrykk og emosjoner med en hastighet på 40 bilder per sekund.

2. Hva er de potensielle farene og de etiske implikasjonene ved deepfake-teknologier som VASA-1?
Deepfake-teknologi medfører flere risikoer, inkludert potensialet for identitetstyveri, misinformasjon, og produksjon av ikke-samtykket syntetiske medier. Teknologien kan også brukes til å lage falske nyheter og propaganda eller til å etterligne enkeltpersoner for bedrageriaktiviteter.

3. Hvilke tiltak blir tatt for å redusere risikoene knyttet til VASA-1 og lignende teknologier?
Microsoft har vist forsiktighet ved å ikke slippe VASA-1 ut på markedet ennå, noe som indikerer deres vurdering av de etiske implikasjonene. I det bredere teknologisamfunnet pågår det en innsats for å utvikle deteksjonsverktøy som kan skille mellom ekte og syntetisk genererte videoer.

Viktige utfordringer og kontroverser:

Autentisitet: Å skille mellom ekte og falskt innhold blir mer utfordrende, noe som kan undergrave tilliten til medier og offentlige personer.
Personvern: Deepfake-teknologien kan bruke en persons likhet uten deres samtykke, og reiser juridiske og personvernsmessige bekymringer.
Regulering: Det er behov for lover og retningslinjer som styrer bruken av deepfake-teknologier og beskytter enkeltpersoner mot skade.

Fordeler:

Underholdning: Deepfakes kan forbedre spesialeffekter i filmer og videospill, redusere kostnader og tid som kreves i produksjonen.
Utdanning: Deepfakes kan brukes til å lage realistiske simuleringer eller historiske rekonstruksjoner for utdanningsformål.
Personalisert innhold: Teknologien kan tillate personlig tilpassing i medier, for eksempel å lage skreddersydde videoer for enkeltpersoner.

Ulemper:

Misbruk: Teknologien kan brukes til å skape falske narrativer, og potensielt påvirke offentlig mening eller valg.
Skader på omdømme: Å lage falske videoer kan skade en persons rykte, forårsake psykisk skade, eller til og med føre til sosiale konsekvenser.

For mer informasjon om Microsofts innsats innen AI, kan du besøke hovedsiden deres på Microsoft.

The source of the article is from the blog aovotice.cz

Privacy policy
Contact