Nova zakonodaja EU o umetni inteligenci: Zaščita družbe in inovacij

Nova zakonodaja Evropske unije (EU) je pomembna prelomnica za področje umetne inteligence. Sprejetje akta EU o umetni inteligenci postavlja temelje za obravnavo tveganj, povezanih z umetno inteligenco. Evropska unija verjame, da lahko z reguliranjem umetne inteligence glede na njeno potencialno škodljivost vzpostavi ravnotežje med tehnološkim napredkom in varovanjem temeljnih pravic. Cilj je razviti bolj človeku osredotočen pristop k tehnologiji.

Za dosego tega cilja EU zakonodaja o umetni inteligenci zajema skrben pristop. Definira umetno inteligenco kot “sistem, ki deluje na osnovi strojne opreme z različnimi stopnjami samostojnosti”, kar vključuje priljubljene chatbot-e kot sta ChatGPT in Gemini. Sistemi umetne inteligence so razdeljeni v tri kategorije: nizko tveganje, srednje tveganje in visoko tveganje. Sistemi visokega tveganja, kot na primer tisti, ki se uporabljajo v bančništvu, šolah ali kritični infrastrukturi, so podvrženi strožjim predpisom. Morajo biti natančni, nadzorovani s strani človeka in stalno nadzorovani. Če visoko tvegani sistemi neposredno vplivajo na državljane, imajo posamezniki pravico vprašati po njihovi uporabi.

Poleg tega zakonodaja EU o umetni inteligenci prepoveduje določene sisteme umetne inteligence, ki imajo potencial povzročiti škodo in negativno vplivati na življenje ljudi. Na primer, socialne ocenjevalne sisteme, ki razvrščajo posameznike glede na njihovo vedenje ali osebnost, strogo prepoveduje. To postavlja EU v nasprotje s državami, kot je Kitajska, ki so takšne sisteme implementirale. Vendar zakon vsebuje izjeme za orodja umetne inteligence, ki se uporabljajo v vojaške, obrambne, nacionalno varnostne in znanstvene namene. Orodja za prepoznavanje obrazov so dovoljena, vendar omejena na uporabo s strani organov pregona.

Zakon obravnava tudi problem deep fake vsebin, terja označevanje vsakega umetno ustvarjenega ali spremenjenega vsebinskega elementa. Posameznike, podjetja in organizacije spodbuja, da označijo vse primere manipulirane vsebine. Zakonodaja EU o umetni inteligenci se prav tako loteva generativne umetne inteligence, vrste umetne inteligence, ki lahko ustvari različne oblike vsebin, kot so besedilo, slike in zvok. Da bi ustrezali zahtevam EU, morajo sistemi generativne umetne inteligence spoštovati avtorske pravice in zagotavljati transparenten dostop do podatkov, uporabljenih za usposabljanje.

Za zagotovitev skladnosti uvaja EU zakon o umetni inteligenci kazni v višini od 7,5 milijona evrov do 35 milijonov evrov za primere neupoštevanja zakona, posredovanja napačnih informacij organom pregona, kršitev določb zakona ali razvoja in uporabe prepovedanih orodij umetne inteligence.

Čeprav so tehnološka podjetja na splošno pozdravila zakonodajo EU o umetni inteligenci, obstajajo pomisleki glede specifičnih podrobnosti in izvajanja. Zakon naj bi stopil v veljavo maja, a podjetja bodo imele obdobje dveh let pred začetkom izvajanja leta 2025, kar jim omogoča čas za prilagoditev in skladnost.

Čeprav ima EU vodilno vlogo s to zakonodajo, imajo Združene države svoje predpise, ki zahtevajo, da razvijalci umetne inteligence delijo podatke z vlado. Kitajska je prav tako uveljavila niz zakonov o umetni inteligenci. Ker svet prepoznava potencialne nevarnosti umetne inteligence, je verjetno, da bodo tudi druge države sledile in uvedle svoje predpise.

Pogosta vprašanja:

Q: Kaj je zakonodaja EU o umetni inteligenci?
A: Zakonodaja EU o umetni inteligenci je celovit okvir, ki si prizadeva nasloviti tveganja, povezana z umetno inteligenco, ter spodbujati inovacije in varovati temeljne pravice.

Q: Kako EU definira umetno inteligenco?
A: EU umetno inteligenco definira kot “sistem, ki deluje na osnovi strojne opreme z različnimi stopnjami samostojnosti.”

Q: Katere kategorije sistemov umetne inteligence zajema zakonodaja EU o umetni inteligenci?
A: Sistemi umetne inteligence so razvrščeni kot nizko tvegani, srednje tvegani ali visoko tvegani, pri čemer so visoko tvegani sistemi podvrženi strožjim predpisom.

Q: Kaj so nekateri primeri visoko tveganih sistemov umetne inteligence?
A: Visoko tvegani sistemi umetne inteligence vključujejo tiste, ki se uporabljajo v bančništvu, šolah in kritični infrastrukturi.

Q: Ali so socialne ocenjevalne sistemi dovoljeni v okviru zakonodaje EU o umetni inteligenci?
A: Ne, socialni ocenjevalni sistemi, ki razvrščajo posameznike glede na vedenje ali osebnost, so strogo prepovedani.

Q: Ali so predvidene kazni za neupoštevanje zakonodaje EU o umetni inteligenci?
A: Da, za različna kršenja zakona so predvidene kazni v višini od 7,5 milijona evrov do 35 milijonov evrov.

Q: Kdaj bo začel veljati zakonodaja EU o umetni inteligenci?
A: Zakonodaja EU o umetni inteligenci naj bi postala zakon maja, prične pa se izvajati leta 2025.

– [Evropska komisija – Umetna inteligenca](https://ec.europa.eu/info/topics/artificial-intelligence_en)

– Umetna inteligenca (AI): Sistem, ki deluje na osnovi strojne opreme z različnimi stopnjami samostojnosti.
– Nizko tvegana AI: Sistemi umetne inteligence, ki predstavljajo minimalna tveganja in so podvrženi manj predpisom.
– Srednje tvegana AI: Sistemi umetne inteligence, ki predstavljajo zmerna tveganja in so podvrženi povprečnim predpisom.
– Visoko tvegana AI: Sistemi umetne inteligence, ki predstavljajo pomembna tveganja in so podvrženi strožjim predpisom.
– Deep fake: Umestno ustvarjena ali spremenjena vsebina, kot so slike ali videoposnetki, ki so lahko zavajajoči ali zavajajoči.
– Generativna AI: Sistemi umetne inteligence, ki so sposobni ustvarjati različne oblike vsebin, kot so besedilo, slike in zvok.
– Prepoznavanje obrazov: Tehnologija, ki identificira ali preveri posameznike na podlagi njihovih obraznih značilnosti.

– Evropska komisija – Umetna inteligenca

The source of the article is from the blog krama.net

Privacy policy
Contact