Jaunā Eiropas perspektīva uz AI regulējumu

Eiropas Savienības likumdošanas iestādes ir uz sliekšņa pabeigt neatliekamās mākslīgā intelekta likuma apstiprināšanu, kas pavērs ceļu tā ieviešanai vēlāk šajā gadā. Likums, pazīstams kā Mākslīgā intelekta likums, ir paredzēts pozicionēt ES kā globālu pionieri AI regulējumā un kalpot par paraugu citiem valstīm, kas saskaras ar šīs strauji attīstošās tehnoloģijas pārvaldības izaicinājumiem.

AI likums ir piecu gadu pētījumu rezultāts, kopš tika iesniegts sākotnējais priekšlikums. Tā galvenais mērķis ir izveidot regulējuma sistēmu, kas nodrošina atbildīgu un cilvēkcentrētu AI attīstību, likvidējot cilvēkus kontroli pār tehnoloģiju, vienlaikus izmantojot tās potenciālu ekonomikas izaugsmei un sabiedriskajai progresam.

Lielie tehnoloģiju uzņēmumi kopumā atbalstīja vajadzību pēc AI regulējuma, taču ir arī lobējuši, lai aizsargātu savas intereses. Pagājušajā gadā OpenAI izpilddirektors Sems Altman radīja kontroverzi, kad minēja, ka viņa uzņēmums varētu atsaukties no Eiropas, ja nevar atbilst AI likumam. Tomēr vēlāk viņš skaidroja, ka nav faktisku plānu aizbraukt.

AI likums pieņem risku balstītu pieeju AI regulējumam, prioritizējot patērētāju drošību. AI lietojumi tiek klasificēti kā zemi un augsti riski ar atbilstoši mainīgu pārbaudes un regulējuma līmeni. Zemas risku sistēmas, piemēram, satura ieteikumu algoritmi vai spama filtrēšana, būs pakļauti vieglākiem noteikumiem, galvenokārt prasot atklāt viņu AI darbības daba. ES sagaida, ka vairums AI sistēmu tiks iekļautas zemu risku kategorijā.

No otras puses, augsta riska AI lietojumi, piemēram, medicīniskās ierīces un kritiskie infrastruktūras, tiks pakļauti stingrākiem noteikumiem. Tos ietver augstas kvalitātes datu izmantošanu, skaidru informācijas sniegšanu lietotājiem un atbilstību konkrētiem drošības pasākumiem. Daži AI lietojumi tiek pilnībā aizliegti, jo tie ir uzskatīti par nepieņemamiem riskiem, piemēram, daži sociālie vērtēšanas sistēmas, paredzamās policijas veidi un emociju atpazīšanas sistēmas izglītības un darba vietu kontekstā. Likums arī liedz AI pārvaldītus attālos sejas atpazīšanas sistēmas publiskai lietošanai, izņemot nopietnu noziegumu gadījumus.

Ģenerālo AI modeļu, piemēram, OpenAI ChatGPT, parādīšanās prasīja papildu noteikumus AI likumā. Šiem modeļiem, kas var radīt dzīvībai līdzīgas atbildes, attēlus un citus, attīstītājiem jānodrošina detalizētas apmācības datu kopsavilkums un jāievēro ES autortiesību likums.

Viena no galvenajām problēmām, ko risina AI likums, ir potenciālo sistēmu risku risks, ko rada spēcīgi AI modeļi. ES atzīst OpenAI GPT4 un Google Gemini kā piemērus modeļiem, kas prasa palielinātu uzmanību savu augsto spēju dēļ. Likumdošana ir vērsta uz nopietnu negadījumu, kiberuzbrukumu un kaitīgu noslieces izplatības novēršanu caur ģeneratīvo AI vairākos pielietojumos.

Uzņēmumi, kas attīsta un nodrošina ar AI sistēmām, kas iekļautas AI likumā, būs spiesti novērtēt un mazināt riskus, ziņot par notikumiem, kas rada kaitējumu, ieviest kiberdrošības pasākumus un atklāt enerģijas patēriņa datus.

Ar gaidāmo AI likuma apstiprināšanu Eiropas Savienība nostiprina savu pozīciju kā globālu līderi AI regulējumā. Izklāstot stingrus standartus, ES cenšas nodrošināt atbildīgu un etisku AI tehnoloģiju attīstību, aizsargājot indivīdu tiesības un labklājību.

The source of the article is from the blog papodemusica.com

Privacy policy
Contact