Nové smernice vlády v USA na reguláciu umelej inteligencie

Vláda Bidenovej administratívy nedávno predstavila tri nové politiky na reguláciu používania umelej inteligencie (AI) federálnou vládou. Tieto politiky, ktoré sú považované za mieradlá pre globálne konanie, si kladú za cieľ riešiť obavy týkajúce sa vplyvu AI na pracovnú silu Spojených štátov, súkromie, národnú bezpečnosť a potenciálne diskriminačné rozhodovanie.

Pre zabezpečenie bezpečnosti a práv Američanov Úrad pre riadenie a rozpočet ukladá federálnym agentúram povinnosť používať AI spôsobom, že nedochádza k ohrozeniu „práv a bezpečnosti“ občanov. Navyše, federálne agentúry budú musieť zverejniť online zoznam AI systémov, ktoré používajú, spolu s posúdením rizík spojených s týmito systémami a spôsobom, akým sú riadené.

Ďalej Biele domy usmerňuje všetky federálne agentúry, aby ustanovili hlavného úradníka pre AI s pevným pôsobením v oblasti. Tento jednotlivec bude zodpovedný za dohľad nad využívaním technológií AI v agentúre, zabezpečujúc, že sú využité eticky a efektívne.

Viceprezidentka Kamala Harris, ktorá bola vedúcou silou pri formovaní politík AI administratívy, zdôraznila dôležitosť týchto smerníc v globálnom meradle. Verí, že všetci lídri, bez ohľadu na odvetvie, majú zodpovednosť zaistenia zodpovedného prijímania a rozvoja AI na ochranu verejnosti pred potenciálnym poškodením a zároveň maximalizáciu jej výhod.

Vláda už zverejnila viac ako 700 príkladov súčasného a plánovaného používania AI v rámci rôznych agentúr. Príklady sa pohybujú od zistenia COVID-19 pomocou analýzy kašľa na smartfóne po identifikáciu podozrivých vojnových zločinov a predchádzanie nelegálne obchodovaniu s tovarom. Avšak na zmiernenie potenciálnych rizík budú federálne agentúry teraz povinné implementovať opatrenia, ktoré spoľahlivo posudzujú, testujú a monitorujú vplyv AI na verejnosť. To zahŕňa úsilie o zabránenie algoritmickému
diskriminácii a zabezpečenie transparentnej zodpovednosti vo využívaní AI vládou.

Ilustračným príkladom poskytnutým viceprezidentkou Harris je použitie AI pri diagnóze pacientov v Úrade pre veteránov. V tomto scenáriu je dôležité, aby AI systém preukázal, že jeho diagnózy nie sú farebne zaujaté.

Výkonným príkazom prezidenta Bidena týkajúcim sa AI, ktorý využíva zákon o obrannej výrobe, ukladá spoločnostiam vyvíjajúcim pokročilé platformy AI oznámiť a zdieľať výsledky bezpečnostných testov s vládou. Tieto testy, vykonávané prostredníctvom procesu známeho ako „red-teaming“, zahŕňajú dôkladné posúdenie rizík. Národný ústav pre normy a technológiu tiež pracuje na stanovení noriem pre testovanie red-team na zaistenie bezpečnosti a zodpovedného nasadenia technológií AI verejnosti.

Tieto nové politiky predstavujú významný krok vpred v regulácii a riadení AI v Spojených štátoch. Prioritou je transparentnosť, zodpovednosť a ochrana občanov, pričom federálna vláda má za cieľ stanoviť robustný rámec, ktorý môže slúžiť ako model pre globálne nariadenia AI.

Často kladené otázky

The source of the article is from the blog toumai.es

Privacy policy
Contact