AI kasutamise väärkasutamise reguleerimine: vajadus paremate seaduste ja läbipaistvuse järele

Austraalia on tuvastanud vajaduse tugevamate eeskirjade järele, et ennetada ja reageerida tehisintellekti (AI) ja masinõppega seotud potentsiaalsetele kahjudele. Austraalia Väärtpaberite ja Investeeringute Komisjoni (ASIC) juht Joe Longo tunnustas, et olemasolevaid seadusi kasutatakse ettevõtete vastutusele võtmiseks, kuid reformid on vajalikud, et efektiivselt reguleerida uusi tehnoloogiaid.

Kuigi praegused seadused hõlmavad laialdasi põhimõtteid, mis kehtivad kõikide majandussektorite suhtes, esineb seadusandlikke lünki, kui tegemist on AI-spetsiifiliste küsimustega. “Opaaksete” AI-süsteemide poolt tekitatud kahjustuste tuvastamine on raskem kui traditsiooniliste “kraed-nööbustega” kuritegude puhul, seetõttu on oluline omada regulatsioone, mis on kohandatud algoritmide või AI kaudu toimepandud kuritegudele. Longo rõhutas, et praegused seadused võivad olla piisavad halbade tegude karistamiseks, kuid nende võime ennetada kahju on piiratud.

Longo tõstis esile potentsiaalseid stsenaariume, kus AI väärkasutus võiks esineda, näiteks siseringikaubandus või turu manipuleerimine. Kuigi karistusi saab jõustada olemasoleva raamistiku alusel, oleks AI-spetsiifiliste seaduste olemasolu tõhusam selliste rikkumiste ennetamisel ja tõkestamisel. Läbipaistev järelevalve ja juhtimine on hädavajalik ebaõiglaste tavadega tegelemiseks, kuid praegune regulatiivne raamistik ei pruugi seda piisavalt tagada.

Rõhutati ka tarbijate kaitsega seotud muresid seoses AI-põhjustatud kahjude eest. Praeguste väljakutsete hulka kuulub läbipaistvuse puudumine AI kasutamisel, tahtmatu kallutatus ja raskused automatiseeritud otsuste vaidlustamisel ja vastutuse kindlaksmääramisel kahjude eest. Tuleb lahendada need probleemid ja tagada võimalus taganemiseks neile inimestele, keda ebaõiglaselt diskrimineeritakse või mõjutatakse kallutatud AI otsuste poolt.

Valitsuse vastus Privaatsuse seaduse ülevaatamisele on nõustunud “põhimõtteliselt” õiguse sätestamisega taotleda tähenduslikku teavet selle kohta, kuidas automatiseeritud otsused tehakse. Euroopa Liidu üldine andmekaitsemäärus aga järgib põhjalikumat lähenemist, tehes seadusega keelatuks ainult automatiseeritud töötlusel põhinevate otsuste tegemine.

Arendajad ja poliitikakujundajad on soovitanud lahendusi nagu “AI põhikirjade” kodeerimine otsuste tegemise mudelitesse, et tagada eelnevalt seatud reeglite järgimine. Need väljakutsed rõhutavad vajadust jätkuvate arutelude ja reformide järele, et luua regulatiivne raamistik, mis soodustab vastutustundlikku AI kasutamist, samal ajal kaitstes inimesi võimalike kahjude eest.

Kokkuvõttes on olemasolevad seadused AIga seotud küsimuste lahendamiseks küll kasutusel, kuid vajalikud on põhjalikud reformid, et tõhusalt reguleerida uusi tehnoloogiaid. Läbipaistvus, järelevalve ja võimalike eelarvamuste arvestamine on võtmetähtsusega regulatsioonide väljatöötamisel, mis soodustavad ausat ja vastutustundlikku AI kasutamist.

The source of the article is from the blog jomfruland.net

Privacy policy
Contact