Kunstige intelligens dypfalsifikasjonar: Ein trussel mot val eller eit verkty for det gode?

I takt med at valkampsesongen i India nærmar seg, har bekymringar om verknaden av kunstige intelligens (KI) dypfalsifikasjonar på politiske kampanjar vekse. Dypfalsifikasjonar, som er syntetiske og realistiske bilete og videoar, har blitt meir vanlege og sofistikerte dei siste åra. Dei kan manipulere politikarar sine taler og utseende, skape tvil og mistillit blant veljarane.

Med tilgang til billig mobildata og høg smarttelefontettheit i India, er det bekymringar for at dypfalsifikasjonar kan bli spreidde gjennom plattformar som WhatsApp, påverke veljarane sine avgjerder eller få dei til å stille spørsmål ved verknaden av stemmene deira.

For å takle desse bekymringane, har det indiske ministeriet for elektronikk og informasjonsteknologi nyleg gitt ut ein rettleiande melding til selskap som arbeider med generativ KI. Meldinga seier at om desse selskapa tilbyr KI-system som framleis er under testing eller ikkje pålitelege, må dei få eksplicit løyve frå myndigheitene og merke utdataane sine på passande vis. Målet er å forhindre produksjon av ulovleg eller misvisande innhald som kan undergrave den demokratiske prosessen.

Likevel har denne meldinga møtt sterk motbør frå både nasjonale og internasjonale KI-aktørar. Mange argumenterer for at den hemmar innovasjon og ytringsfridom. Statsminister for elektronikk og IT, Rajeev Chandrasekhar, presiserte at meldinga ikkje gjeld for oppstartsfirma, noko som skapte noko lettelse. Likevel består det fortsatt bekymringar rundt misbruk av KI-teknologi.

Som svar på desse bekymringane, har Senthil Nayagam, grunnleggaren av oppstartsfirmaet Muonium AI, skapt eit «Etisk KI-samarbeidsmetodemanifest» før vala. Dette manifestet har som mål å sikre at KI-teknologiar vert brukt på ein ansvarleg måte og ikkje manipulerer val, spreier misinformasjon eller undergraver den offentlege tilliten til politiske institusjonar. Nayagam har nådd ut til omtrent 30 selskap, der to allereie har skrive under på manifestet og tre er i prosessen med å skrive under.

Det er ikkje alle KI-skapelsar som er ondsinna dypfalsifikasjonar meint for å svartmale motstandarar. Nokre applikasjonar, som til dømes personaliserte interaktive telefonsamtalar, fungerer meir som nyskapningar enn truslar mot valkretsintegritet. Til dømes har politiske parti i India nytta syntetiske røyster for å sende ut førehandsinnspelte meldingar som tillet individuelle veljarar ved namn. Sjølv om desse applikasjonane kan sjå uskuldige ut, er det viktig å vurdere potensialet for misbruk.

Divyendra Singh Jadoun, ein KI-skapar kjend som The Indian Deepfaker, har trent røyste- og video-KI-modellar for å distribuere tilpassa meldingar til politiske parti. Han hevdar å arbeide med «etiske» KI-skapelsar, som autoriserte omsetjingar og gjenopplivingar av avdøde leiarar, med partiets godkjenning. Likevel erkjenner han at når dypfalsifikasjonsteknologien vert meir tilgjengeleg, produserer partia i aukande grad sine eigne dypfalsifikasjonar, noko som gjer det lettare å spreie misinformasjon.

Ekspertar på feltet, som Karen Rebelo frå fakta-kontroll-nettstaden BOOM, har merka ein betydeleg auke i KI-dypfalsifikasjonar under nylege folkeval. Teknologien har blitt billigare og meir tilgjengeleg, noko som let alle med ein datamaskin produsere dypfalsifikasjonar. Dette reiser bekymringar om potensiell verknad av dypfalsifikasjonar på rettferd og gjennomsiktighet i val.

Sjølv om KI-dypfalsifikasjonar er ei kjelde til bekymring, har dei også potensiale til å verte brukt til det positive. KI-teknologiar kan spele ei positiv rolle i å forbetre den demokratiske prosessen, til dømes ved å auka tilgjengelegheit for funksjonshemma veljarar eller tilby nøyaktige omsetjingar av politiske taler. Nøkkelen ligg i å forsikre seg om at desse teknologiane vert nytta etisk og ansvarleg.

Som India gjer seg klar for dei komande vala, er det avgjerande for regjeringa, KI-selskap og politiske parti å samarbeide om å etablere klare retningslinjer og reguleringar for bruk av KI i politiske kampanjar. Ved å prioritere gjennomsiktighet, ansvarlegheit og integritet i den demokratiske prosessen, kan India utnytte potensialet til KI samtidig som dei reduserer risikoane det medfører.

Verknaden og bekymringane rundt dypfalsifikasjonar i politiske kampanjar begrenser seg ikkje berre til India. Bruken av dypfalsikonologi har blitt eit globalt problem, med implikasjonar for ulike bransjar og marknader.

Dypfalsifikasjonsindustrien er klar for ei betydeleg vekst i åra som kjem. Ifølgje ein rapport frå MarketsandMarkets er det globale dypfalsifikasjonsmarkedet spådd å nå ein verdi på 304,3 millionar dollar innan 2026, med ein samansett årleg vekst (CAGR) på 37,3% frå 2021 til 2026. Marknadsveksten kan hovudsakleg tilskrivast den aukande bruken av KI-teknologi og den auke medvitneheita om dypfalsifikasjonar.

Potensiell verknad av dypfalsifikasjonar strekkjer seg lenger enn politiske kampanjar. Bransjar som underhaldning, datasikkerheit og journalistikk står òg overfor utfordringar knytte til dypfalsikonologi. Innen underhaldningindustrien kan dypfalsifikasjonar verte brukt til å manipulere skodespelarar sitt utseende eller skape realistiske virtuelle avatarar. Dette reiser bekymringar om personvern, immaterielle rettar og autentisiteten til innhald.

Innanfor datasikkerheitsfeltet er dypfalsifikasjonar ei signifikant trussel. Falske videoar og bilete kan brukast til å lure enkeltpersonar eller få uautorisert tilgang til system. Cyberkriminelle kan utnytte dypfalsifikasjonar til å lage overtydande phishing-angrep eller manipulere digitalt bevis under juridiske prosessar.

Journalistikk er ein annan bransje som vert påverka av dypfalsifikasjonar. Spreiing av misinformasjon og erosjon av offentleg tillit er betydelege utfordringar som journalistar møter i den dypefalsifikasjonalderen. Nyheitsorganisasjonar må utvikle robuste faktasjekkmetodar og opplyse publikum om å oppdage og verifisere autentisiteten til innhald.

Som svar på den veksande trusselen frå dypfalsifikasjonar har ulike initiativ og organisasjonar kome fram for å motverke dei negative effektane. Eit slikt initiativ er Deepfake Detection Challenge (DFDC), organisert av eit samarbeid mellom Facebook, Microsoft, Partnership on AI og fleire akademiske institusjonar. DFDC har som mål å utvikle og fremskaffe metodar for å identifisere dypfalsifikasjonar, noko som kan bidra til å redusere deira spreiing.

Ansvaret for å ta tak i problemet med dypfalsifikasjonar strekkjer seg utover regelverk frå myndigheiter og bransjeinitiativ. Individ må òg vere klar over eksistensen av dypfalsifikasjonar og vere på vakt mot innhald dei konsumerer og deler. Faktasjekking av informasjon, verifisering av kjelder og fremjing av mediekompetanse er avgjerande steg i kampen mot spreiing av dypfalsifikasjonar.

Sjølv om det å takle dypfalsifikasjonar er ei kompleks oppgåve, kan framsteg innan KI-teknologi òg verta utnytta til å utvikle verktøy for å oppdage og minimere verknaden av dei. Maskinlæringsalgoritmar kan trenast opp for å identifisere anomalier i videoar eller bilete og skilje mellom autentisk og manipulert innhald. Kontinuerleg forsking og samarbeid mellom teknologiselskap, forskarar og beslutningstakarar er avgjerande for å effektivt takle utfordringar knytte til dypfalsifikasjonar.

Kjelder:
MarketsandMarkets Deepfake Market Report
– Deepfake Detection

The source of the article is from the blog lisboatv.pt

Privacy policy
Contact