Uzmanību piesaistošie faktori izstrādē un regulēšanā, kad runa iet par mākslīgo inteliģenci: novatoriskās likumdošanas aktualitātes Eiropas Savienībā

Kopš gadiem kļūst aizvien skaļāks aicinājums regulēt mākslīgo inteliģenci (MI). Un 2024. gada 13. martā Eiropas Savienība (ES) veica nozīmīgu soli uz priekšu, pieņemot inovatīvu likumdošanas aktu, kas vērsts uz MI regulēšanu. Šis likums ir izraisījis debates MI politikas aprindās, kur daži uzskata to par būtisku soli uz pasaules MI pārvaldību, bet citi bažījas, ka tas varētu bremzēt inovācijas.

ES MI likums kategorizē MI sistēmas atkarībā no to riska līmeņa: nepieņemams, augsts, ierobežots un minimāls. Nepieņemamie riski attiecas uz lietojumprogrammām, kas ir tieši aizliegtas, jo tās rada skaidrus draudus cilvēku drošībai un iztikas līdzekļiem. Tas ietver sistēmas, kas saistītas ar sociālo vērtēšanu un emociju noteikšanu. Augsta riska sistēmas ir tādas, kurām ir potenciāls nodarīt kaitējumu, piekļūstot jutīgiem datiem, piemēram, tām, kas tiek izmantotas tiesu sistēmās, likumdošanas jomā un kritiskajā infrastruktūrā. Finanšu sektorā AI lietojumprogrammas, kas noteik creditspejas un apdrošināšanas prasības, pakļautu ierobežojumiem.

ES MI likums: Saskaņas un inovācijas līdzsvars
ES MI likums ievieš riska pakāpju sistēmu, kas ne tikai nodrošina konsistentu MI regulējumu, bet arī darbojas kā pamats drošiem MI lietojumgadījumiem. Tas piespiež uzlikt ierobežojumus modeļu apmācībai, privātuma aizsardzībai un kompensāciju intelektuālā īpašuma tiesībām, nodrošinot, ka nelicencēts saturs nav pieļaujams apmācībai. Turklāt likums uzsver atklātības nepieciešamību, prasot, lai lietotāji tiktu informēti par to, kā viņu personas dati tiek izmantoti apmācības procesā.

Kaut gan daži argumentē, ka šie pasākumi varētu būt pārāk ierobežojoši lieliem valodas modeļiem, ir svarīgi atzīmēt, ka ES MI likums ir saskaņā ar politikas pētnieku cenšanos veidot drošāku MI attīstību. Tomēr ir izteikti bažas par to, vai likumdošana spēj turēties soli līdzi strauji attīstošās tehnoloģijas festonam. Vadošas MI uzņēmējdarbības uzņēmumi bieži informāciju par savu modeļu apmācības tehnikām uzskata par īpašumu un var censties atkāpties no šiem noteikumiem, darbojoties mazāk ierobežojošos jurisdikcijās.

Šāda iespējamā “sacensība uz leju” dinamika var veicināt valstu apņemšanos pieņemt zemākus regulējuma līmeņus, lai iegūtu konkurētspējīgu priekšrocību globālajā MI sacensībā. Jau tagad Amerikas Savienotās Valstis un Apvienotā Karaliste ir izvēlējušās AI kā līdzekli, lai saglabātu starptautisko varu un atjaunotu ekonomisko spēku attiecīgi. Tāpēc ES MI likums, lai arī ir svarīgs solis globālajā MI politikā, var saskarsies ar izaicinājumiem intensīvas MI sacensības kontekstā.

Atzīstot, ka AI raksturīga uzvarēt visiem modelis, valdībām un vadošajiem MI uzņēmumiem kļūst ļoti svarīgi prioritizēt strauju inovāciju par drošības rēķina. Tas nozīmē nozīmīgu vājumu ES MI likumā un citos valsts regulējumos, radot potenciālu nepamatotu pašapmānu. Līdzīgi kā valstu noteikumi kodolieroču attīstībai, starptautiska koordinācija un sadarbība ir būtiska stipriem stimuliem globālajā AI drošībā.

Tālākais ceļš: Globālā pārvaldība un iekšējās drošības apņemšanās
ES MI likums ir sākuma solis ceļā uz globālo MI pārvaldību. Tomēr AI regulējumu patiesa efektivitāte būs atkarīga no tā, kā vadošās ekonomikas uztver savas apņemšanās gan globālajā, gan iekšzemes drošībā. Līdzīgi kā uzraudzības prasības, drošības pasākumi un sadarbība bijuši būtiski kodolieroču atbruņošanas centienos, starptautiska koordinācija AI drošībā ir vienlīdz svarīga.

Lai gan ES MI likums risina vajadzību pēc AI regulējuma, valstīm visā pasaulē ir jāsadarbojas un jāizveido vienota sistēma, kas veicina drošu AI attīstību. Darīt to, globālā kopiena var navigēt pa riskiem, kas saistīti ar AI, vienlaikus veicinot inovācijas sabiedrības labklājībai kopumā.

BUJ
1. Kāpēc ES MI likumu uzskatīja par inovatīvu?
ES MI likums tiek uzskatīts par inovatīvu, jo tas ir pirmā liela mēroga centieni jebkurai jurisdikcijai noteikt pieņemamas lietojumprogrammas un parametrus AI izvietošanai. Tas nosaka riska līmeņu hierarhiju un ievieš regulējumu, lai nodrošinātu AI tehnoloģiju drošību un pārredzamību.

2. Kādas ir dažādas riska kategorijas, kas definētas ES MI likumā?
ES MI likums kategorizē AI sistēmas četrās riska līmeņos: nepieņemams, augsts, ierobežots un minimāls. Nepieņemamie riski tiek pilnībā aizliegti dēļ draudiem drošībai un iztikas līdzekļiem. Augsta riska sistēmas spēj nodarīt kaitējumu, piekļūstot jutīgiem datiem. Ierobežotie riska līmeņi paredz konkrētus noteikumus, bet minimālie riska līmeņi ir zemākā riska līmenī.

3. Vai ES MI likums kavē inovācijas?
Ir radušās bažas, ka ES MI likums var kavēt inovācijas, īpaši lielām valodas modeļiem. Tomēr ir svarīgi atzīmēt, ka likums cenšas panākt līdzsvaru starp inovāciju un nodrošināt drošu AI tehnoloģiju attīstību un izmantošanu. Tas ir saskaņā ar politikas pētnieku vēlmēm attīstīt drošāku AI.

4. Kā var panākt globālu koordināciju AI drošībā?
Globāla koordinācija AI drošībā var tikt panākta, sadarbojoties un mijiedarbojoties starptautiski. Valstīm visā pasaulē ir jāizveido spēcīgi stimuli globālai AI drošībai un jāstrādā kopā, lai izveidotu vienotu sistēmu, kas veicina drošu AI attīstību, vienlaikus risinot ar AI tehnoloģiju saistītos riskus.

Avots: piemērs.com

The source of the article is from the blog macnifico.pt

Web Story

Privacy policy
Contact