Å bryte barrierar i USAs AI-politikk: Å balansere skjønn og tryggingsmekanismar

Den kvitehuset har nyleg avdekka nye reguleringar for å styre bruken av kunstig intelligens (AI) systemar av føderale etatar. Desse reglane siktar mot å verne mot potensiell diskriminering og overvåkingsrisikoar knytt til AI-teknologi. Medan reglane tilbyr omfattande vern, gir dei også etatane betydeleg skjønn til å fråvike viktige tryggingsmekanismar. Denne artikkelen utforskar behovet for ein forsiktig balanse mellom å gi etatane autonomi og å sikre effektiviteten av AI-politikkane.

Kontoret for budsjett og administrasjon sin melding fastset «minimumsmekanismer for risikomindsking» som etatane må fylgje før dei implementerer AI-system. Desse mekanismane inkluderer konsekvensvurderingar som tar omsyn til potensiell risiko for underprivilegerte samfunn, evaluering av passformen til AI for spesifikke oppgåver, og løpande overvaking av ytelsen i den virkelige verda. Mangelfull etterleving av desse mekanismane eller avdekking av sikkerheits- eller rettsoverskridingar ville resultere i forbod mot AI-bruk. Meldinga prioriterer å garantere vern mot algoritmisk skade.

Likevel undergraver den store skjønnsmesse åtferd til etatar å kunne omgå desse reguleringane gjennom fråvikingar og avvik, styrken til reglane. Uklare kriterium som potensiell auke i risiko for tryggleik eller rettar generelt kan føre til misbruk av skjønnet. I tillegg, smutthol som tillèt fråvikingar om AI ikkje blir vurdert som ein «prinsipp-basis» for beslutningstaking, liknar på tilsvarande unntak som har svekka reglar som handl om å adresse AI-bias tidlegare. Desse regulatoriske holane har allereie ført til diskriminerande resultat, som ansiktsgjenkjenning-algoritmar som påverkar svart asylsøkarar i større grad og feil predictive algoritmar som påverkar føderale fengselsløslatingavgjersler.

Vidare, det skjønnsmessige avgjerdsforma krafta for å fravike minimumpraksisar ligger heilt hos etat-utnevnte sjefar for kunstig intelligens (CAIOs). Medan desse offiserane er ansvarlege for å tilsjå bruk av AI, veikskapar i etatenes eiga-tilsynsmekanismar, som underbemanna personvern og sivilrettighetsvaktar, teiper ei trussel mot effektiv tilsyn. Skjønnet utøvt av CAIOs er endelig og ikkje gjenstand for anke, noko som reiser bekymringar angåande ansvarutfordringar.

For å auke effektiviteten av OMB-meldingen, bør føderale etatar avgrense fråvik og avvik til eksepsjonelle situasjonar, prioritere offentleg tillit framfor hurtigheit og hemmelegheit, og sikre klare forklaringar på kvifor vedtak skjer. OMB bør granske og revurdere beslutningar om fråvik og avvik blir misbrukt. Likevel ligg det endelege ansvaret for å iverksette omfattande AI-vernmekanismer hos kongressen. Lovgjevarane har makta til å kodifisere vern inn i lova og etablere uavhengige tilsynsmekanismer. Sidan potensiell skade fra AI-teknologiane er stor, lar det vere store smutthol være er for risikofylt.

FAQ

The source of the article is from the blog enp.gr

Privacy policy
Contact