Suurte tehnoloogiaettevõtete lobi tegevus Euroopa Liidus suunab tähelepanu tehisintellekti regulatsioonide leevendamisele, muretsedes kõrgete trahvide pärast. Mais saavutas EL ajaloolise kokkuleppe, mis kehtestab ulatuslikud tehisintellekti regulatsioonid pärast põhjalikke läbirääkimisi erinevate poliitiliste fraktsioonide vahel.
Kuid kuni seotud praktilised juhised on lõplikult valminud, valitseb ebakindlus seoses reeglite rakendamisega, mis käsitlevad AI süsteeme nagu OpenAI ChatGPT, mis võivad ettevõtteid potentsiaalsete kohtuasjade ja märkimisväärsete trahvide ohtu seada. EL on palunud ettevõtete, akadeemikute ja teiste sidusrühmade abi nende koodide koostamisel, saades peaaegu 1,000 ettepanekut, mis on silmatorkavalt kõrge vastuse määr.
Kuigi tehisintellekti juhend järgmise aasta jaanuarist ei ole seaduslikult kohustuslik, annab see ettevõtetele vastavuse kontrollnimekirja. Selle koodi eiramine võib viia õiguslike komplikatsioonideni nende jaoks, kes väidavad, et järgivad regulatsioone, kuid ei järgi sätestatud praktikaid. Muretseda on ka autoriõiguse rikkumiste üle, eriti seoses sellega, kuidas ettevõtted nagu OpenAI kasutavad populaarseid raamatuid ja pilte oma mudelite koolitamiseks ilma loata.
Uue seaduse kohaselt peavad ettevõtted selgelt avaldama andmed, mida kasutatakse nende tehisintellekti mudelite koolitamiseks, võimaldades sisuloojatel taotleda hüvitist, kui nende teoseid kasutatakse ära. Tööstuse liidrid, nagu Google’i ja Amazoni esindajad, on valmis panustama ning toetavad regulatiivse raamistiku eduka rakendamise eest. Tasakaal läbipaistvuse tagamise ja innovatsiooni edendamise vahel jääb ELi regulatiivsetes ringkondades vaidlusaluseks teemaks.
Tehnoloogiahiiglased nõuavad leebemaid regulatsioone tehisintellekti osas ELi järelevalve all
Kuna arutelud tehisintellekti (AI) ja selle ühiskondlike tagajärgede üle muutuvad üha valjemaks, intensiivistavad suured tehnoloogiaettevõtted oma lobitegevust Euroopa Liidus (EL). Nende eesmärk on kujundada regulatiivne maastik, mis oleks innovatsioonile soodne, samas pakkudes piisavaid juhiseid eetiliste tavade jaoks. See muutus toimub seoses üha kasvava tähelepanuga AI süsteemide, näiteks OpenAI ChatGPT, üle, mis on üles toonud arutelud ohutuse, vastutuse ja õiglus küsimustes.
Peamised küsimused ja vastused
1. Milliseid konkreetseid meetmeid nõuavad tehnoloogiaettevõtted tehisintellekti regulatsioonides?
– Tehnoloogiahiiglased nõuavad sätteid, mis rõhutavad enesereguleerimist ja riski alusel põhinevaid raamistikke. See hõlmab ELi julgustamist klassifitseerida tehisintellekti süsteeme vastavalt nende võimaliku riskitasemele, võimaldades lõpuks looduslikke vastavusmeetodeid, mis on kohandatud erinevate rakenduste nüanssidele.
2. Millised väljakutsed on seotud tehisintellekti regulatsiooniga?
– Peamised väljakutsed hõlmavad AI kasutamise piiride määratlemist, andmete väärkasutamise murede lahendamist ning intellektuaalomandi õiguste kaitsmist. Samuti on muresid liiga rangete regulatsioonide kehtestamise pärast, mis võivad piirata innovatsiooni või sunnida ettevõtteid kolima leebemale jurisdiktsioonile.
3. Millised vastuolud aset leidnud tehisintellekti ja autoriõiguse rikkumise osas?
– Oluline vastuolu puudutab autoriõiguse kaitsega kaitstud materjalide kasutamist AI mudelite koolitamisel. Sellised ettevõtted nagu OpenAI ja Google saavad kriitikat, kuna nad võivad rikkuda autoriõiguse seadusi, kasutades ulatuslikke andmekogumeid, mis võivad sisaldada kaitstud teoseid, ilma vajalikku luba omamata.
Tehnoloogiahiiglaste leebete regulatsioonide toetamise eelised
1. Innovatsiooni julgustamine:
– Paindlikum regulatiivne raamistiku võib stimuleerida tehisintellekti tehnoloogia innovatiivseid kasutusviise, võimaldades ettevõtetel katsetada uusi ideid ilma liigse trahvikartuseta.
2. Rakendamise kiirus:
– Loodud leebemad regulatsioonid võivad viia kiiremalt AI tehnoloogiate kohandumiseni ja integreerimiseni erinevatesse sektoritesse, mis lõppkokkuvõttes toob kasu nii tarbijatele kui ka ettevõtetele.
3. Globaalne konkurentsivõime:
– Luues keskkonna, mis soosib tehnoloogia arengut, suudab EL hoida tipptaset ja edendada alustavaid ettevõtteid, säilitades seeläbi oma positsiooni globaalsetel turgudel.
Leebete regulatsioonide lähenemisviiside puudused
1. Avaliku ohutuse riskid:
– Liigsed leebed regulatsioonid võivad prioriseerida kiirus ohutuse üle, viies AI süsteemide rakendamiseni, mis ei ole põhjalikult kontrollitud võimalike riskide suhtes, sealhulgas kallutatus või kahjulikud tulemused.
2. Vastutuse kadumine:
– Regulatiivne maastik, mis ei ole ranget, võib muuta ettevõtete vastutuse kehtestamise keeruliseks, tuues kaasa probleeme, kui tuleb hoida organisatsioone vastutavana negatiivsete tagajärgede eest, mis tulenevad AI rakendamisest.
3. Võimalik loojate ekspluateerimine:
– Ilma selgete reeglite olemasoluta autoriõiguse ja andmete kasutamise kohta on oht, et sisuloome, kunstnikud ja autorid võivad jätkuvalt olla ekspluateeritud ilma piisava hüvitise või tunnustuseta.
Kokkuvõte
Kuna EL viib lõpule oma ulatuslikud tehisintellekti regulatsioonid, muutub tasakaal innovatsiooni edendamise ja avaliku ohutuse tagamise vahel üha keerulisemaks. Tehnoloogiahiiglaste suruvõime leebemate regulatsioonide poole rõhutab pidevat debatti selle üle, kuidas parimal viisil navigeerida kiiresti arenevas tehisintellekti maastikus. Sidusrühmad peavad olema ettevaatlikud, et tegeleda nii võimaluste kui ka riskidega, mis kaasnevad AI arendamisega.
Rohkem selle teema kohta leiate EL ametlikult saidilt ja TechCrunchist.