Eit nytt perspektiv på kunstig intelligens (AI) i valet av misinformasjon

I ei tid der verda blir stadig meir samanvevd, har trusselen frå valdsinformasjon teke på seg ei ny dimensjon med framveksten av kunstig intelligens (AI). Teknologien har gjort det alarmerande enkelt for kven som helst med ein smarttelefon og ein kreativ hjerne å skape overtydande falskt innhald som er retta mot å villeie veljarane. Det som før krevde team av dyktige enkeltmennesker og betydelege ressursar, kan no oppnåast med berre nokre enkle steg ved hjelp av genererande AI-tenester frå selskap som Google og OpenAI.

Den aukande bruken av AI deepfakes, særleg i samanheng med val i Europa og Asia, har alt skapt bekymring. Desse deepfakes, som refererer til falske videoar, bilete eller lyd generert av AI, har vore i omløp på sosiale medieplattformer i månader og fungerer som ei advarsel for dei meir enn 50 landa som skal ha val i år. Dei har potensiale til å påverke valresultata betydeleg.

Nokre nylege døme på AI deepfakes inkluderer ei video av Moldovas pro-vestlege president som støttar eit politisk parti venlegsinna til Russland, lyd av Slovakias liberale parti leiande som diskuterer endringar i stemming og prisen på øl, og ein video av ein opposisjonslovgjevar i Bangladesh med bikini – ei kontroversiell handling i det samfunnet.

Spørsmålet vi står overfor i dag, er ikkje lenger om AI deepfakes potensielt kan påverke val, men heller kor innflytelsesrike dei vil være. Henry Ajder, grunnleggaren av Latent Space Advisory, eit forretningsrådgivingsselskap i Storbritannia, peiker treffande på at folk allereie slit med å skilje mellom virkelighet og fabrikasjon. Denne forvirringa utgjer ei betydeleg utfordring for demokratiske prosessar sin integritet.

Den aukande bruken av AI deepfakes reiser ikkje berre bekymringar om den innflytelsen dei kan ha over veljarane, men undergraver også allmenta si tillit til det dei ser og høyrer. Kompleksiteten i teknologien bak AI deepfakes gjer det vanskeleg å identifisere dei som er ansvarlege for å skape og spre slik innhald. Regjeringar og selskap står overfor den skremmande oppgåva med å finna effektive måtar å bekjempe dette stadig skiftande problema på, men noverande tiltak strekk ikkje til for å tilby ei omfattande løysing.

Som svar på denne globale utfordringa har nokon av dei største teknologiselskapa frivillig forplikta seg til å hindre at AI-verktøy blir misbrukt under val. Til dømes har selskapet som eig Instagram og Facebook lova å merke deepfakes som viser seg på plattformene deira. Likevel kan slike tiltak møte avgrensingar på plattformer som Telegram, som ikkje signerte den frivillige avtalen. Telegram sitt krypterte meldingssystem utgjer unike hindringar for å avsløre og ta tak i deepfakes.

Sjølv om det er avgjerande å handle mot spreiinga av AI deepfakes, er det bekymringar for at tiltak for å avgrense deira spreiing kan utilsiktet undertrykke legitim politisk kommentar. Tim Harper, ein ekspert ved Center for Democracy and Technology i Washington, DC, advarer om at grensa mellom politisk kritikk og forsøk på å sverte kandidatar enkelt kan bli utydeleg.

Det er også verd å merke seg at AI deepfakes ikkje er den einaste trusselen mot valas integritet. Kandidatar sjølv kan utnytte denne teknologien til å villeie veljarar ved å påstå At all skadeleg informasjon eller ufordelaktige hendingar er resultatet av AI-manipulering. Slike taktikkar undergraver ytterlegare allmenn tillit til valprosessen, og fører til ei verd der skepsisen rår, og enkeltpersonar plukkar ut si eiga versjon av virkeligheten.

Avslutningsvis, reisinga av AI deepfakes skapar betydelege utfordringar i ei tid der valdsinformasjonen er utbreidd. Ettersom teknologien held fram med å avansere, gjer også truslane ho fører med seg. Regjeringar, selskap og enkeltpersonar må saman arbeide mot å finna effektive mottiltak for å sikre valas integritet. Berre gjennom samla innsats vil vi kunne tryggje tilliten og sjølvtilliten som er avgjerande for funksjonen til demokratiske samfunn.

The source of the article is from the blog macholevante.com

Privacy policy
Contact