Lielās tehnoloģiju korporācijas šobrīd ietekmē Eiropas Savienību, lai pieņemtu maiga regulējuma nostāju attiecībā uz mākslīgo intelektu, iemesls tam ir bažas par smagām sankcijām. Maijā ES noslēdza vēsturisku vienošanos, izveidojot visaptverošus mākslīgā intelekta regulējumus pēc plašām sarunām starp dažādiem politiskajiem spēkiem.
Tomēr, kamēr saistītie praktiskie kodeksi nav pilnībā pabeigti, pārāk daudz neskaidrības attiecas uz noteikumu ievērošanu attiecībā uz mākslīgā intelekta sistēmām, piemēram, OpenAI ChatGPT, kas varētu pakļaut uzņēmumus iespējamām tiesvedībām un ievērojamām naudām. ES ir lūgusi uzņēmumiem, akadēmiķiem un citiem ieinteresētajiem izstrādāt šos kodeksus, saņemot gandrīz 1000 priekšlikumu, kas ir ievērojami augsts atbilžu skaits.
Kamēr mākslīgā intelekta kodeks nākamgad tiks ieviests, tas nebūs juridiski saistošs, taču sniegs atbilstības pārbaudes sarakstu uzņēmumiem. Šī kodeksa ignorēšana var novest pie juridiskām problēmām tiem, kas apgalvo, ka ievēro regulējumus, tomēr neievēro izklāstītās prakses. Pastāv bažas par autortiesību pārkāpumiem, it īpaši attiecībā uz to, kā uzņēmumi, piemēram, OpenAI, izmanto vispārdotākās grāmatas un attēlus savu modeļu apmācībai bez atļaujas.
Jaunās likumdošanas ietvaros uzņēmumiem ir jāatklāj izmantotie dati, lai apmācītu savus mākslīgā intelekta modeļus, ļaujot saturu radītājiem prasīt kompensāciju, ja viņu darbi tiek izmantoti. Nozares līderi, piemēram, Google un Amazon, ir ieinteresēti piedalīties un vienlaikus iestāties par veiksmīgu regulatīvā ietvara ieviešanu. Līdzsvars starp caurspīdīguma nodrošināšanu un inovāciju veicināšanu joprojām ir strīdīga diskusiju tēma ES regulatīvās aprindās.
Tehnoloģiju giganti iestājas par elastīgiem AI regulējumiem ES uzraudzībā
Kā sarunās par mākslīgo intelektu (AI) un tā ietekmi uz sabiedrību palielinās, lielās tehnoloģiju korporācijas pastiprina savas lobēšanas aktivitātes Eiropas Savienībā (ES). Viņu mērķis ir veidot regulatīvu vidi, kas ir labvēlīga inovācijai, vienlaikus nodrošinot pietiekamas vadlīnijas ētiskai rīcībai. Šī pārveidošana notiek uzauga pieaugošā uzmanība mākslīgā intelekta sistēmām, piemēram, OpenAI ChatGPT, kas ir izraisījušas debates par drošību, atbildību un godīgumu.
Galvenie jautājumi un atbildes
1. Kādas konkrētas pasākumus tehnoloģiju uzņēmumi iestājas AI regulējumos?
– Tehnoloģiju giganti iestājas par noteikumiem, kas uzsver pašregulāciju un riska balstītas struktūras. Tas ietver aicinājumu ES klasificēt AI sistēmas atbilstoši to potenciālajiem riska līmeņiem, galu galā ļaujot radīt organiskus atbilstības veidus, kas pielāgoti dažādu lietojumu niansēm.
2. Kādi ir izaicinājumi, kas saistīti ar AI regulēšanu?
– Galvenie izaicinājumi ir saistīti ar AI izmantošanas robežu noteikšanu, bažām par datu ļaunprātīgu izmantošanu un intelektuālā īpašuma tiesību aizsardzību. Turklāt pastāv bažas, ka pārāk stingri regulējumi varētu apspiest inovāciju vai likt uzņēmumiem pārcelties uz mazāk stingrām jurisdikcijām.
3. Kādi skandāli saistībā ar AI un autortiesību pārkāpumiem pašlaik notiek?
– Liels skandāls ir saistīts ar autortiesību aizsargāto materiālu izmantošanu mākslīgā intelekta modeļu apmācībā. Uzņēmumi, piemēram, OpenAI un Google, saskaras ar kritiku par to, ka varētu pārkāpt autortiesību likumus, izmantojot plašus datu kopumus, kas var ietvert aizsargātus darbus, nesaņemot nepieciešamo atļauju.
Tehnoloģiju gigantu maigo regulējumu priekšrocības
1. Inovāciju veicināšana:
– Elastīgāks regulējuma ietvars var stimulēt inovatoriskus mākslīgā intelekta tehnoloģiju pielietojumus, ļaujot uzņēmumiem eksperimentēt ar jaunām idejām bez pārmērīgas bažas par sodāmību.
2. Izpildes ātrums:
– Brīvāki regulējumi var novest pie ātrākas mākslīgā intelekta tehnoloģiju ieviešanas un integrācijas dažādās nozarēs, kas galu galā gūst labumu patērētājiem un uzņēmumiem.
3. Globālā konkurētspēja:
– Radot vidi, kas ir labvēlīga tehnoloģiju attīstībai, ES var noturēt vadošos talantus un veicināt jaunuzņēmumus, tādējādi uzturot savu konkurētspēju globālajā līmenī.
Mīksto regulējumu pieejas trūkumi
1. Sabiedrības drošības apdraudējumi:
– Vārdarbīgi regulējumi var prioritizēt ātrumu pār drošību, kas var novest pie mākslīgā intelekta sistēmu ieviešanas, kas nav rūpīgi pārbaudītas potenciālo risku, tostarp aizspriedumu vai kaitīgu seku, noteikšanā.
2. Atbildības apdraudējums:
– Regulējuma vide, kas nav stingra, var apgrūtināt atbildības ieviešanu uzņēmumiem, radot problēmas valstīm, kas cenšas uzlikt pienākumus organizācijām negatīvu seku gadījumā.
3. Riska radītājus izmantot:
– Bez skaidriem noteikumiem attiecībā uz autortiesībām un datu izmantošanu pastāv risks, ka satura veidotāji, mākslinieki un autori turpinās tikt izmantoti bez pietiekamas kompensācijas vai atzīšanas.
Secinājums
Kamēr ES pabeidz savus visaptverošos mākslīgā intelekta regulējumus, līdzsvara meklēšana starp inovāciju veicināšanu un sabiedrības drošības nodrošināšanu kļūst arvien sarežģītāka. Tehnoloģiju gigantu spiediens uz mīkstajiem regulējumiem uzsver pastāvīgo diskusiju par to, kā vislabāk orientēties radoši attīstīgajā mākslīgā intelekta ainavā. Ieinteresētajām pusēm jāpaliek modrām, risinot gan iespējas, gan riskus, kas pavada AI attīstību.
For more on this topic, visit ES oficiālā mājaslapa and TechCrunch.