Kva er effekten av AI på val: Vern om demokratiet i den digitale tidsalderen

Kunstig intelligens (AI) revolusjonerer verda med val, men det utgjer også betydelege risikoar for demokratiske prosessar. I takt med at det amerikanske valet i 2024 nærmar seg, er uroa for AI-generert feilinformasjon, deepfakes og villedande medium meir framtredande enn nokosinne. Heldigvis erkjenner regjeringar og teknologiselskap behovet for tiltak, men det gjenstår framleis mykje arbeid for å verne om demokratiet.

Den nylege München-sikkerheitskonferansen såg industriledarar, inkludert OpenAI, Apple, Meta, Microsoft, TikTok, Google og andre, kome saman for å takle utfordringane som AI utgjer i val. Dei lova å ta tiltak for å spore opphavet til AI-generert innhald, oppdage villedande medium og implementere førebyggande tiltak mot AI-drevne triksing. Sjølv om desse forpliktelsane er eit steg i riktig retning, avheng suksessen deira av effektiv gjennomføring.

Den nye teknologien med generativ AI gjev svindlarar moglegheit til å skape utruleg realistiske falske bilete, videoar og lydopptak av kandidatar og offentlege talspersonar. Desse skapningane kan spreie seg raskt, til låg kostnad og i stor skala. I tillegg gjer AI-dreivne chatbotar det mogleg å lage falske val-nettstader og villedande nyheitsnettstader på sekundet. Denne evna gjev skadelege aktørar, både utanlandske og innanlandske, midlar til å gjennomføre påverkingskampanjar som er vanskelege å spore.

Integrasjonen av generativ AI i søkjemotorar og chatbotar har ført til situasjonar der veljarar som søkjer valinformasjon, møter på feilinformasjon eller vert rettleia til periferiske nettstader. Studiar viser at populære AI-verktøy ofte presterer dårleg når dei møter visse valrelaterte spørsmål. Vidare kan tradisjonelle AI-teknologiar bidra til utfordringar knytt til veljarrett, noko som potensielt kan føre til feilaktige slettingar frå veljarlistene.

Som svar på desse utfordringane har AI-selskap, som OpenAI, implementert retningslinjer for å begrense valrelaterte skadar. OpenAI har forbode brukarar å bygge AI-chatbotar som imiterer kandidatar og spreier feilinformasjon om røysting. Vidare har dei tatt steg for å kryptere bilete for å oppdage eventuell uautorisert bruk. Likevel har desse handlingane framleis sine avgrensingar, og meir må gjerast.

Eit avgjerande aspekt som treng merksemd, er å adressere falske narrativ og framstillingar som har hjemsøkt tidlegare valsyklusar. OpenAI sine retningslinjer forbyr ikkje eksplisitt skaping og spreiing av innhald som falskt viser valpåverknad, upålitelege røystemaskinar eller utbreidd valjuks. Ei tydeleg forbod mot desse kategoriane ville gitt meir klarheit og vern for veljarane.

Samarbeid med tredjepartsutviklarar er ein annan område som krev merksemd. Når tredjeparts søkjemotorar nyttar OpenAI-modellar, kan svarene dei gir være unøyaktige eller utdaterte. Strengare krav til partnerskap og integrering av OpenAI-modellar i søkjemotorar og digitale plattformar ville betre verne veljarar som søkjer informasjon om røysting og val.

OpenAI kan ikkje handtere desse utfordringane åleine. Andre store teknologiselskap bør òg løyse sine eigne valretningslinjer for generativ AI-verktøy og vere transparente om deira praksis. Koalisjonen for innhaldsopphav og autentisitet sitt opne standard for innbinding av innhald med digitale markørar bør takast i bruk vidt.

Ofte stilte spørsmål

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact