Jauni noteikumi regulē mākslīgo intelektu Amerikas Savienotajās Valstīs

Amerikas Savienoto Valstu valdība nesen ir atklājusi trīs jaunus noteikumus, lai regulētu mākslīgās intelektu (AI) izmantošanu federālajā valdībā. Šie noteikumi, ko uzskata par pasaules līmeņa rādītāju, mērķē uz jautājumiem par AI ietekmi uz ASV darba tirgu, privātumu, nacionālo drošību un diskriminatīvu lēmumu pieņemšanas iespējamību.

Lai nodrošinātu amerikāņu drošību un tiesības, Budžeta pārvaldes birojs ir uzliecis pienākumu federālajām aģentūrām izmantot AI veidā, kas neapdraud pilsoņu “tiesības un drošību”. Turklāt federālajām aģentūrām būs jāpublicē tiešsaistē saraksts ar AI sistēmām, ko tās izmanto, kā arī novērtējums par šīm sistēmām saistītajiem riskiem un to pārvaldības veidu.

Turklāt Baltā nama administrācija ir izvirzījusi prasību visām federālajām aģentūrām iecelt galveno AI iestādes amatpersonu ar stipru pamatu šajā jomā. Šai personai būs jāuzrauga AI tehnoloģiju izmantošana aģentūrā, nodrošinot, ka tās tiek izmantotas ētiski un efektīvi.

Viceprezidente Kamala Harisa, kura ir bijusi galvenais spēks administrācijas AI politikas veidošanā, uzsvēra šo noteikumu nozīmi globālā līmenī. Viņa uzskata, ka visiem līderiem, neatkarīgi no nozares, ir atbildība nodrošināt atbildīgu AI pieņemšanu un attīstību, lai aizsargātu sabiedrību no iespējamām kaitēm, maksimāli izmantojot tās priekšrocības.

Valdība jau ir atklājusi vairāk nekā 700 gadījumu, kad pašlaik tiek izmantota vai plānota AI izmantošana dažādās aģentūrās. Piemēri ir no COVID-19 noteikšanas, izmantojot viedtālruņa klepojuma analīzi, līdz iespējamo kara noziegumu atklāšanai un preču nelegālai tirdzniecībai. Tomēr, lai samazinātu iespējamos riskus, federālajām aģentūrām tagad būs jāievieš drošības pasākumi, kas uzticami novērtē, testē un uzrauga AI ietekmi uz sabiedrību. Tas ietver pasākumus, lai novērstu algoritmu diskrimināciju un nodrošinātu skaidru kontabilitāti valdības AI izmantošanā.

Viceprezidentes Harisas sniegtais ilustratīvais piemērs attiecas uz AI izmantošanu pacientu diagnosticēšanā Veterānu administrācijā. Šajā scenārijā ir būtiski, lai AI sistēma parādītu, ka tās diagnosticē nekādā veidā nav saistītas ar rasu diskrimināciju.

Kopumā prezidenta Bidena izdevums saistībā ar AI, kas izmanto Aizsardzības ražošanas likumu, noteic, ka uzņēmumi, kas attīsta augstas klases AI platformas, ir saistīti paziņot un kopīgot drošības testu rezultātus ar valdību. Šie testi, kas tiek veikti ar tā saukto “red-teaming” procesu, ietver rūpīgu riska novērtēšanu. Valsts standartu un tehnoloģiju institūts strādā arī pie standartiem “red-team” testēšanai, lai nodrošinātu drošu un atbildīgu AI tehnoloģiju izmantošanu sabiedrībā.

Šie jaunie noteikumi ir būtisks solis uz priekšu AI regulēšanā un pārvaldībā ASV. Prioritizējot skaidrību, atbildību un pilsoņu aizsardzību, federālā valdība cenšas izveidot stingru pamatu, kas var kalpot par modeli globālām AI regulām.

Bieži uzdotie jautājumi (FAQ)

Kādi ir galvenie jauno AI politiku mērķi, ko paziņojusi Bidena administrācija?

Jauno AI politiku galvenie mērķi ir nodrošināt amerikāņu drošību, tiesības un privātumu, vienlaikus risinot bažas par potenciālu diskrimināciju un riskiem, kas saistīti ar AI tehnoloģiju. Politiķi mērķē uz struktūru, kas ļauj sniegt atbildi par lietderīgu, pārredzamu un atbildīgu AI izmantošanu federālajā valdībā.

Kādus pasākumus federālās aģentūras būs jāveic jauno politiku ietvaros?

Jauno politiku ietvaros federālās aģentūras būs jāpublicē saraksts ar AI sistēmām, ko tās izmanto, kopā ar risku novērtējumu un to pārvaldības veidu. Turklāt katrā aģentūrā tiks iecelts galvenais AI amatpersona, kas būs atbildīga par AI tehnoloģiju īstenošanas uzraudzību un nodrošinās to ētisku un efektīvu izmantošanu.

Kā valdība novērtēs AI drošības riskus?

Lai novērtētu AI drošības riskus, federālās aģentūras būs pienākums ieviest pasākumus, kas iespējami uzticami novērtē, testē un uzrauga AI ietekmi uz sabiedrību. Tas ietver pasākumus, lai novērstu algoritmu diskrimināciju un publicētu informāciju, kas sniegtu ieskatu, kā valdība izmanto AI.

Kāda būs Nacionālā standartu un tehnoloģiju institūta loma AI regulēšanā?

Nacionālais standartu un tehnoloģiju institūts noteiks standartus AI tehnoloģiju “red-team” testēšanai. “Red-teaming” ietver rūpīgu riska novērtēšanu, lai nodrošinātu AI platformu drošu un atbildīgu izmantošanu, pirms tās tiek izlaistas sabiedrībai. Šie standarti veidos kopējo regulējuma un pārvaldības AI regulēšanas struktūru.

Jaunie noteikumi, ko ir paziņojusi Bidena administrācija attiecībā uz mākslīgās intelektu (AI) izmantošanu federālajā valdībā, ir daļa no plašāka centienā regulēt AI tehnoloģiju un risināt saistītās bažas. Šie politiskie lēmumi ir globāli nozīmīgi un kalpo, lai aizsargātu ASV darba tirgu, privātumu, nacionālo drošību un novērstu diskriminatīvas lēmumu pieņemšanu.

AI rūpniecība piedzīvo strauju izaugsmi, ar AI tehnoloģiju izmantošanu dažādās nozarēs, piemēram, veselības aprūpē, likuma izpildes iestādēs un finansēs. Tirgus prognozes liecina, ka līdz 2025. gadam globālais AI tirgus sasniegs 190 miljardus ASV dolāru, ar gadu vidējo procentuālo pieaugumu virs 33% no 2020. līdz 2025. gadam. Tas uzsvēra aizvien lielāko nozīmi regulācijām, lai nodrošinātu atbildīgu un ētisku AI izmantošanu.

Viens no jauno AI politiku galvenajiem mērķiem ir nodrošināt amerikāņu drošību un tiesības. Federālās aģentūras būs jāizmanto AI veidā, kas neapdraud pilsoņu “tiesības un drošību”. Tas ietvers drošības pasākumu ieviešanu, kas uzticami novērtē, testē un uzrauga AI ietekmi uz sabiedrību. Valdība cenšas novērst algoritmu diskrimināciju un nodrošināt skaidru atbildību par AI izmantošanu.

Papildus drošības jautājumiem, privātums ir nozīmīga problēma AI nozarē. Noteikumi paredz, ka federālās aģentūras publicē sarakstu ar AI sistēmām, ko tās izmanto, kopā ar novērtējumu par saistītajiem riskiem un to pārvaldības veidu. Tāda pārredzamība nodrošina sabiedrībai pārliecību par AI izmantošanu un veicina atbildīgu praksi.

Lai uzraudzītu AI tehnoloģiju izmantošanu federālo aģentūru ietvaros, Baltā nama administrācija rīko visām aģentūrām iecelt galveno AI amatpersonu ar stipru pamatu šajā jomā. Šī persona būs atbildīga par to, ka AI tehnoloģijas tiek izmantotas efektīvi un ētiski.

**Avota**: domēnaURL

The source of the article is from the blog elblog.pl

Privacy policy
Contact