Noile reguli privind utilizarea Inteligenței Artificiale în Statele Unite

Statele Unite au recent dezvăluit noi reglementări menite să reglementeze utilizarea sistemelor de inteligență artificială (AI) de către agențiile federale. Aceste reguli au ca scop protejarea împotriva riscurilor potențiale de discriminare și supraveghere asociate tehnologiei AI. Memoriul Office of Management and Budget stabilește „practici minime de reducere a riscurilor” la care agențiile trebuie să se conformeze înainte de implementarea sistemelor AI. Aceste practici includ evaluări de impact care iau în considerare riscurile potențiale pentru comunitățile marginalizate, evaluarea potrivirii AI pentru sarcini specifice și monitorizarea continuă a performanței în lumea reală. Neconformitatea cu aceste practici sau descoperirea încălcărilor de siguranță sau drepturi ar conduce la interzicerea utilizării AI. Memoriul priorizează garantarea protecției împotriva prejudiciilor algoritmice.

Cu toate acestea, amplitudinea largă acordată agențiilor pentru a evita aceste reglementări prin scutiri și exceptări subminează puterea regulilor. Criteriile ambiguu, cum ar fi potențialul creșterii riscurilor pentru siguranță sau drepturi în ansamblu, pot duce la abuzuri ale discreției. În plus, golurile care permit exceptarea dacă AI nu este considerată un „principiu de bază” pentru luarea deciziilor sunt asemănătoare cu excepțiile care au slăbit reglementările privind discriminarea AI în trecut. Aceste lacune reglementare au condus deja la rezultate discriminatorii, precum algoritmii de recunoaștere facială care au afectat disproporționat solicitanții de azil negri și algoritmii previzionali viciati care influențează deciziile privind eliberarea din închisoare federală.

Mai mult decât atât, puterea de luare a deciziilor de a renunța la practicile minime se află exclusiv în mâinile Chief Artificial Intelligence Officers (CAIOs) desemnați de agenție. În timp ce acești ofițeri sunt responsabili pentru supravegherea utilizării AI, slăbiciunile din mecanismele proprii de poliție ale agențiilor, cum ar fi watchdog-urile subdimensionate pentru protecția vieții private și drepturile civile, constituie o amenințare la supravegherea eficientă. Discreția exercitată de CAIOs este finală și nu este supusă apelului, ridicând îngrijorări privind responsabilitatea și transparența.

Pentru a îmbunătăți eficacitatea memoriului OMB, agențiile federale ar trebui să limiteze scutirile și exceptările la circumstanțe excepționale, să prioritizeze încrederea publică în loc de oportunism și secretomanie și să asigure explicații clare pentru orice decizii luate. OMB ar trebui să verifice și să reevalueze deciziile în cazul abuzurilor privind scutirile și exceptările. Cu toate acestea, responsabilitatea finală de a implementa protecții AI cuprinzătoare este a Congresului. Legislatorii au puterea de a codifica măsuri de siguranță în lege și de a stabili mecanisme independente de supraveghere. Având în vedere posibilele pericole ale tehnologiei AI, păstrarea unor largi scurgeri în loc este prea risculos.

Întrebări frecvente

Q: Care sunt principalele prevederi ale noilor reglementări privind AI impuse de Casa Albă?
A: Reglementările necesită ca agențiile federale să desfășoare evaluări de impact, să evalueze potrivirea AI pentru sarcinile specifice și să monitorizeze continuu performanța în lumea reală pentru a reduce riscurile pentru comunitățile marginalizate și a proteja drepturile individuale.

Q: Cum subminează amplitudinea largă și scutirile acordate agențiilor reglementările?
A: Discreția acordată agențiilor prin scutiri și exceptări poate fi predispusă la abuzuri, iar golurile care permit exceptările bazate pe rolul AI în procesul decizional au slăbit în mod istoric reglementările menite să abordeze discriminarea AI.

Q: Care sunt câteva exemple de anomalii în implementarea curentă a AI de către agențiile guvernamentale?
A: Algoritmii viciati de recunoaștere facială au afectat disproporționat solicitanții de azil negri, iar algoritmii AI previzionali au influențat decizii părtinitoare legate de eliberarea din închisorile federale. În plus, algoritmii utilizați în programele de sănătate au determinat tăieri arbitrare și injuste în sprijinul îngrijirii la domiciliu pentru persoanele vulnerabile.

Q: Ce rol au Chief Artificial Intelligence Officers (CAIOs) în supravegherea utilizării AI?
A: CAIOs sunt responsabili de luarea deciziilor privind scutiri și exceptări și sunt obligați să-și raporteze deciziile la Office of Management and Budget. Cu toate acestea, slăbiciunile din mecanismele proprii de poliție ale agențiilor ar putea împiedica capacitatea lor de a oferi supraveghere eficientă.

Q: Cum pot fi abordate aceste capcane în reglementările privind AI?
A: Agențiile ar trebui să limiteze scutirile și exceptările la circumstanțe excepționale, prioritizând încrederea publică și transparența. Office of Management and Budget ar trebui să verifice deciziile și să le reevalueze dacă sunt abuzate. În cele din urmă, Congresul ar trebui să codifice măsuri de siguranță cuprinzătoare în lege și să stabilească mecanisme independente de supraveghere.

The source of the article is from the blog bitperfect.pe

Privacy policy
Contact