Uued suunised AI poliitikale USAs: tagades diskretsiooni ja kaitse

Hiljuti on Valge Maja välja kuulutanud uued määrused, mis reguleerivad tehisintellekti (AI) süsteemide kasutamist föderaalasutuste poolt. Need reeglid on suunatud diskrimineerimise ja jälgimisriskide vastu, mis on seotud AI-tehnoloogiaga. Kuigi reeglid pakuvad põhjalikke kaitsemeetmeid, võimaldavad need ametiasutustel olulist diskretsiooni, et loobuda põhilistest kaitsemeetmetest. See artikkel uurib vajadust hoolika tasakaalu järele ametiasutuste autonoomsuse andmise ja AI-poliitikate tõhususe tagamise vahel.

Sagedased küsimused

K: Mis on uute AI määruste peamised sätted, mille on kehtestanud Valge Maja?

A: Määrused nõuavad, et föderaalasutused teeksid mõju hindamisi, hindaksid AI sobivust konkreetsete ülesannete jaoks ning jälgiksid pidevalt reaalmaailma sooritust riskide leevendamiseks alamteenindatud kogukondade ja üksikisikute õiguste kaitseks.

K: Kuidas laialdane diskretsioon ja erandid, mis on antud ametiasutustele, õõnestavad määrusi?

A: Diskretsioon, mida ametiasutustele pakutakse läbi loobumiste ja erandite, võib olla väärkasutusele altid ning erandid, mis võimaldavad loobumisi AI rolli põhjal otsuste tegemisel, on ajalooliselt nõrgestanud eeskirju, mille eesmärk on käsitleda AI-viitasid.

K: Mis on mõned näited praeguste valitsusasutuste teostatud AI rakenduste vigadest?

A: Vigased näotuvastusalgoritmid on ebaproportsionaalselt mõjutanud mustanahalisi varjupaigataotlejaid ja ennustavad AI algoritmid on mõjutanud ebaõiglasi otsuseid föderaalse vangla vabastamisega seotud valesid mõjutusi. Lisaks on tervishoiu programmides kasutatavad algoritmid põhjustanud suvalisi ja ebaõiglaseid kärpeid kodus hoolduse toetustes haavatavatele isikutele.

K: Millist rolli mängivad peaarhitektuuri ametnikud (CAIOs) AI kasutamise järelevalves?

A: CAIOsid vastutavad otsuste tegemise eest loobumiste ja erandite osas ning peaksid teatama oma otsustest Office of Management and Budget’ile. Siiski võib ametiasutustes olevatele privaatsuse ja kodanikuõiguste järelevalveorganitele nõrgad kohad raskendada nende suutlikkust tagada tõhus järelevalve.

K: Kuidas saaks neid lõkse AI määrustes käsitleda?

A: Ametiasutused peaksid piirama loobumisi ja erandeid erandlikes olukordades, andes prioriteedi avalikkuse usaldusele ja läbipaistvusele. Office of Management and Budget peaks otsuseid uurima ja uuesti hindama, kui neid kuritarvitatakse. Lõppkokkuvõttes peaks kongress seadustama kõikehõlmava kaitseõiguse ja looma iseseisvad järelevalvemehhanismid.

Valge Maja poolt kehtestatud uued määrused on suunatud tehisintellekti (AI) süsteemide kasutamise reguleerimisele föderaalasutuste poolt. Need reeglid on välja töötatud selleks, et kaitsta AI-tehnoloogiaga seotud diskrimineerimise ja jälgimisriskide eest. Office of Management and Budget’i memo kirjeldab “minimaalseid riskide leevendamise tavaid”, mida ametiasutused peavad enne AI süsteemide rakendamist järgima. Need tavad hõlmavad mõju hindamist, AI sobivuse hindamist konkreetsete ülesannete jaoks ning reaalmaailma soorituse pidevat jälgimist riskide leevendamiseks alamteenindatud kogukondade ja üksikisikute õiguste kaitseks. Nende tavade rikkumine või ohutuse või õiguste rikkumiste avastamine viiks AI kasutamise keelustamiseni. Memo eesmärk on tagada kaitse algoritmiliste kahjude vastu. [allikas: valgemaja.ee]

Siiski, kuigi reeglid pakuvad põhjalikke kaitsemeetmeid, võimaldavad need ametiasutustele olulist diskretsiooni, et loobuda põhilistest kaitsemeetmetest. See lai diskretsioon, mida antakse ametiasutustele läbi loobumiste ja erandite, õõnestab reeglite tugevust. Ebamäärasel kriteeriumil, näiteks riskide hindamisel ohutuse või õiguste suhtes üldiselt, võib olla väärkasutuse oht. Loopholes, mis võimaldavad loobumistel, kui AI ei ole otsuste tegemisel “põhiline alus”, sarnanevad minevikus AI-viita eeskirjade nõrgendamist võimaldanud eranditega. Need regulatiivsed lüngad on juba viinud diskrimineerivate tulemusteni, nagu näiteks näotuvastusalgorytmid, mis mõjutavad mustanahalisi varjupaigataotlejaid ja vigased ennustusalgorytmid, mõjutades föderaalse vangla vabastamise otsuseid.

Lisaks, minimaalsete tavade loobumisotsuste tegemise võim kuulub ainult ametiasutuse poolt nimetatud peaarhitektuuri ametnikele (CAIOs). Kuigi need ametnikud vastutavad AI kasutamise järelevalve eest, kujutavad nõrgad kohad ametiasutuste enda järelevalvemehhanismides, nagu alarahastatud privaatsuse ja kodanikuõiguste valvurid, ohtu tõhusale järelevalvele. CAIOde poolt teostatav diskretsioon on lõplik ja sellele ei saa vastuväiteid esitada, tõstes küsimusi vastutuse ja läbipaistvuse kohta.

Nende lõksude käsitlemiseks ja OMB memo tõhususe suurendamiseks on soovitatav, et föderaalasutused piiraksid loobumisi ja erandeid erandlikes olukordades. Avalikkuse usalduse ja läbipaistvuse andmine on oluline. Ametiasutused peaksid pakkuma selgeid selgitusi otsuste kohta, mis puudutavad loobumisi või erandeid. Office of Management and Budget peaks uurima ja uuesti hindama otsuseid, kui loobutakse ja loobutakse kuritarvitatakse. Lõppkokkuvõttes, põhjalike AI kaitsemeetmete jõustamise põhiline vastutus lasub kongressil. Seadusandjad omavad võimu kaitsemeetmed seadustesse kodeerida ja luua iseseisvad järelevalvemehhanismid. Arvestades tehisintellekti tehnoloogia võimalikke kahjusid, on laiade lünkade jätmise riskantne.

The source of the article is from the blog enp.gr

Privacy policy
Contact