Regulējot mākslīgā intelekta ļaunprātību: nepieciešamība pēc labākiem likumiem un pārredzamības

Austrālija ir atzinusi nepieciešamību pēc stingrākas regulējošās vides, lai novērstu un reaģētu uz potenciālajiem kaitējumiem, ko rada mākslīgais intelekts (AI) un mašīnmācīšanās. Austrālijas Vērtspapīru un ieguldījumu komisijas priekšsēdētājs Džo Longo atzina, ka esošie likumi tiek izmantoti, lai uzliktu uzņēmumiem atbildību, bet ir nepieciešamas reformas, lai efektīvi regulētu jaunās tehnoloģijas.

Lai gan esošie likumi ietver vispārīgas pamatnostādnes, kas piemērojamas visiem ekonomikas sektoriem, ir likumpiešanas spraugas, kas saistītas ar AI specifiskām problēmām. “Necaurspīdīgu” AI sistēmu radītie kaitējumi ir grūti atklājami nekā tradicionālie zilās apkakles noziegumi, tāpēc ir svarīgi būt regulām, kas pielāgotas noziegumiem, kas izdarīti ar algoritmu vai AI palīdzību. Longo uzsvēra, ka, lai gan esošie likumi var būt pietiekami, lai sodītu sliktas darbības, tie nevar efektīvi novērst kaitējumu.

Longo akcentēja potenciālus scenārijus, kurus varētu izraisīt AI ļaunprātīgums, piemēram, iekšējā tirdzniecība vai tirgus manipulācija. Lai arī sodi var tikt piemēroti esošajā regulējumā, AI specifiski likumi būtu efektīvāki, lai novērstu un novērstu šādas pārkāpumus. Pārredzama pārraudzība un vadība ir nepieciešama, lai novērstu netaisnīgas prakses, bet pašreizējais regulējošais regulējums varētu nepietiekami nodrošināt to.

Tika izteikti arī bažas par patērētāju aizsardzību pret AI radītiem kaitējumiem. Pašreizējie izaicinājumi ietver nepietiekamu pārredzamību AI izmantošanā, nejaušas priekšnoteikumu ietekmi un grūtības pārsūdzēt automātiskās izvēles un noteikt atbildību par zaudējumiem. Nepieciešams risināt šīs problēmas un nodrošināt atbildes iespējas tiem indivīdiem, kuri var tikt diskriminēti vai ietekmēti, pamatojoties uz pārmērīgu AI izvēlēm.

Valdības atbilde uz Privātuma likuma pārskata “būtību” ir piekritusi iespējai ierakstīt tiesības lūgt nozīmīgu informāciju par to, kā tiek pieņemtas automatizētās izvēles. Tomēr Eiropas Savienības Vispārīgās datu aizsardzības regulējums pieņem plašāku pieeju un padara nelegālu indivīdu pakļaušanu lēmumiem, kas balstīti tikai uz automatizētu apstrādi.

Izstrādātāji un politikas veidotāji ir ierosinājuši risinājumus, piemēram, “AI konstitūciju” iekodēšanu lēmumu pieņemšanas modeļos, lai nodrošinātu ievērošanu paredzētajām normām. Šie izaicinājumi pauž nepieciešamību turpināt diskusijas un reformas, lai izveidotu regulējošo struktūru, kas veicina atbildīgu AI izmantošanu, vienlaikus aizsargājot indivīdus no potenciāliem kaitējumiem.

Secinot, lai gan esošie likumi tiek izmantoti, lai risinātu AI saistītās problēmas, nepieciešamas visaptverošas reformas, lai efektīvi regulētu jaunās tehnoloģijas. Pārredzamība, pārraudzība un potenciālu priekšnoteikumu izvēršana ir būtiska, lai izveidotu regulējošu regulējumu, kas veicina taisnīgu un atbildīgu AI praksi.

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact