Uus Teadusartikkel: Euroopa Liiderdab Kunstliku Intellekti Reguleerimises

Euroopa Liidu seadusandjad on äärel, et lõplikult heaks kiita läbimurdeline kunstliku intellekti seadus, mis sillutab tee selle rakendamiseks veel sel aastal. Seadus, tuntud kui Kunstliku Intellekti Seadus, seab ELi globaalse AI reguleerimise pioneeri rolli ning toimib mudelina teistele riikidele, mis seisavad silmitsi selle kiirelt areneva tehnoloogia valitsemise väljakutsetega.

AI seaduseks on viieaastase arutelu tulemus alates selle algsest ettepanekust. Selle peamine eesmärk on luua raamistik, mis tagaks vastutustundliku ja inimestekeskse AI arengu, pannes inimesed tehnoloogia üle kontrolli samal ajal, kasutades selle potentsiaali majanduskasvu ja ühiskonna arengu tagamiseks.

Samal ajal kui suured tehnoloogiaettevõtted on üldiselt toetanud vajadust AI reguleerimise järele, on nad samas lobistanud, et kaitsta oma huve. Eelmisel aastal tekitas OpenAI tegevjuht Sam Altman poleemikat, kui ta vihjas, et tema ettevõte võib Euroopast lahkuda, kui ta ei suuda AI seadusega vastavusse jääda. Siiski selgitas ta hiljem, et tegelikke lahkumisplaane ei ole.

AI Seadus võtab riskipõhise lähenemise AI reguleerimisele, andes prioriteedi tarbijate ohutusele. AI rakendused liigitatakse madala ja kõrge riskiga kategooriatesse, kus vastavalt varieeruvad ka kontroll ja reguleerimine. Madala riskiga süsteemid, nagu sisuturu soovitusalgoritmid või rämpsposti filtrid, alluvad kergematele reeglitele, nõudes peamiselt läbipaistvust AI jõul tegutsemise avalikustamisel. EL ootab, et enamus AI süsteeme klassifitseeritakse kui madala riskiga.

Teisalt, kõrge riskiga AI kasutused, nagu meditsiiniseadmed ja kriitiline infrastruktuur, on kohustatud rangematele nõuetele. Nendeks on kvaliteetsete andmete kasutamine, kasutajatele selge teabe andmine ja konkreetsete ohutusmeetmete järgimine. Mõned AI rakendused on rangelt keelatud nende põhjustatud vastuvõetamatute riskide tõttu, näiteks teatud sotsiaalsete punktisüsteemide, ennustava politseitöö ja emotsioonide tuvastamise süsteemides haridus- ja töökeskkondades. Seadus keelab ka avalikus kasutuses olevate AI toega kaugjuhitavate näotuvastussüsteemide, välja arvatud rasketest kuritegudest.

Üldotstarbeliste AI mudelite, nagu OpenAI ChatGPT, tekkimine nõudis täiendavaid säteid AI seaduses. Need mudelid, mis suudavad genereerida tõetruusid vastuseid, pilte ja muud, nõuavad arendajatelt detailseid kokkuvõtteid kasutatud treeningandmetest ning vastavust ELi autoriõigusele.

Üheks oluliseks murekohaks, mida käsitleb AI Seadus, on süsteemsete riskide potentsiaal tugevate AI mudelite poolt. EL tuvastab OpenAI GPT4 ja Google’i Gemini näidete järgi mudeleid, mis vajavad täiendavat kontrolli nende arenenud võimete tõttu. Seadusandlus eesmärk on ära hoida tõsiseid õnnetusi, küberrünnakuid ja kahjulike eelarvamuste levikut generatiivse AI abil mitme rakenduse ulatuses.

AI Seaduse alla kuuluvate AI süsteemearendavate ettevõtete ja pakkujate kohustuseks saab olema riskide hindamine ja leevendamine, intsidentidest teatamine, mis põhjustavad kahju, küberkaitsemeetmete rakendamine ja energiatarbimise andmete avaldamine.

Oodates AI seaduse heakskiitu, tugevdab Euroopa Liit oma positsiooni maailma juhina AI reguleerimises. Püstitades tugevad standardid, soovib EL tagada vastutustundliku ja eetilise AI-tehnoloogia arendamise, samas kaitstes individuaalsete õiguste ja heaolu.

Sagedased küsimused (FAQ):

Mis on Euroopa Liidu AI seaduse eesmärk?
AI Seadus eesmärk on luua põhjalik regulatiivne raamistik, mis tagaks kunstliku intellekti vastutustundliku ja inimestekeskse arendamise.

Kuidas kategooriseerib AI Seadus AI rakendused?
AI Seadus jagab AI rakendused madala ja kõrge riskiga kategooriatesse, millel on erinev kontrolli- ja reguleerimisaste.

Milliseid AI kasutusi keelab AI Seadus?
Keelatud AI kasutuste hulka kuuluvad sotsiaalsed punktisüsteemid, teatud tüüpi ennustavad politseitööd ja AI toega kaugjuhitavad näotuvastussüsteemid avalikuks kasutamiseks.

Milliseid lisanõudeid pannakse üldotstarbeliste AI mudelite arendajatele?
Üldotstarbeliste AI mudelite arendajad peavad esitama detailseid treeningandmete kokkuvõtteid ja järgima ELi autoriõiguse seadusi.

Kuidas tegeleb AI Seadus võimsate AI mudelitega kaasnevate riskidega?
AI Seadus kehtestab karmimad regulatsioonid ja kontrolli kõige arenenumatele AI mudelitele, et leevendada tõsiste õnnetuste, küberrünnakute ja kahjulike eelarvamuste leviku potentsiaali.

Mõisted:

Kunstliku Intellekti Seadus: Euroopa Liidu poolt viimistletav läbimurdeline seadus, mis loob põhjaliku regulatiivse raamistiku kunstliku intellekti arendamiseks.

AI reguleerimine: Protsess, mis koosneb reeglite ja juhiste kehtestamisest kunstliku intellekti tehnoloogia arendamise ja kasutamise valitsemiseks.

AI rakendused: Kunstliku intellekti erinevad kasutusviisid ja rakendused erinevates tööstusharudes ja sektorites.

Madala riski ja kõrge riski kategooriad: Klassifikatsioon, mille alusel liigitatakse AI rakendused nende potentsiaalse kahjustuse ja mõju taseme järgi.

Generatiivne AI: AI mudelid, mis suudavad genereerida tõetruusid vastuseid, pilte ja muid väljundeid.

Süsteemsed riskid: Riskid, mis võivad mõjutada süsteemi või ühiskonna üldist toimimist ja stabiilsust.

OpenAI GPT4: Konkreetne arenenud AI mudel, mille arendas OpenAI, mida nimetatakse mudeliks, mis vajab AI Seaduse all läbipaistvamat kontrolli.

Google’i Gemini: Teine arenenud AI mudel, mille arendas Google, mainitud kui mudel, mis vajab suuremat kontrolli ja regulatsiooni.

Autoriõigus seadus: Õiguslikud regulatsioonid, mis kaitsevad loojate õigusi ja nende intellektuaalomandit.

Soovitatavad lingid:

EU ametlik veebisait

Euroopa Komisjon – Kunstlik Intellekt

Euroopa Parlament – EU SeGim vientificial Intelligence

Watch more about AI

The source of the article is from the blog scimag.news

Privacy policy
Contact