Didžiosios technologijų korporacijos šiuo metu lobuoja Europos Sąjungoje, siekdamos, kad būtų priimta švelnesnė pozicija dėl dirbtinio intelekto reguliavimų, tai nulemia baimė dėl didelių baudų. Gegužę ES pasiekė istorinius susitarimus, kurie nustato išsamius dirbtinio intelekto reguliavimus po ilgų derybų tarp įvairių politinių frakcijų.
Tačiau kol bus parengti susiję praktiniai kodeksai, kyla neaiškumų dėl taisyklių taikymo dirbtinio intelekto sistemoms, tokioms kaip OpenAI ChatGPT, kurios gali iškelti įmonėms galimybes susidurti su ieškiniais ir didelėmis baudomis. ES pakvietė verslą, akademikus ir kitus suinteresuotus asmenis padėti rengti šiuos kodeksus, gavo beveik 1000 pasiūlymų, tai yra mažų mažiausiai didelis atsakymo lygis.
Nors dirbtinio intelekto kodeksas nebus teisiškai privalomas, kai jis bus įgyvendintas kitais metais, jis suteiks atitikties kontrolinį sąrašą įmonėms. Šio kodekso ignoravimas gali sukelti teisinių komplikacijų tiems, kurie teigia, kad laikosi reguliavimų, tačiau nesilaiko numatytų praktikų. Išlieka susirūpinimas dėl autorinių teisių pažeidimų, ypač kaip tokios įmonės kaip OpenAI naudoja geriausiai parduodamus knygas ir vaizdus mokydamos savo modelius be leidimo.
Pagal naująją įstatymą, įmonės privalo skaidriai atskleisti duomenis, naudojamus dirbtinio intelekto modelių mokymui, leidžiant turinio kūrėjams reikalauti kompensacijos, jei jų darbai yra išnaudojami. Pramonės lyderiai, tokie kaip „Google“ ir „Amazon“, nori prisidėti ir kartu pasisakyti už sėkmingą regulavimo sistemos įgyvendinimą. Balansas tarp skaidrumo užtikrinimo ir novatoriškumo skatinimo išlieka prieštaringai vertinamas klausimas ES reguliavimo rateliuose.
Technologijų milžinai yra už lankstesnius dirbtinio intelekto reguliavimus ES priežiūros akivaizdoje
Nors pokalbiai apie dirbtinį intelektą (DI) ir jo poveikį visuomenei vis labiau girdimi, didžiosios technologijų korporacijos intensyvina savo lobizmo pastangas Europos Sąjungoje (ES). Jų tikslas yra sukurti reguliavimo aplinką, palankią inovacijoms, tuo pat metu teikiant pakankamas gaires etiniam praktikoms. Šis pokytis vyksta didėjant budrumui prieš DI sistemas, tokias kaip OpenAI ChatGPT, kurios sukėlė diskusijas apie saugumą, atsakomybę ir teisingumą.
Esminiai klausimai ir atsakymai
1. Kokių konkrečių priemonių technologijų bendrovės siekia DI reguliavimuose?
– Technologijų milžinai siekia, kad būtų pabrėžta savireguliacija ir rizika pagrįsti rėmai. Tai apima skatinimą, kad ES klasifikuotų dirbtinio intelekto sistemas pagal jų potencialų rizikos lygį, galų gale leidžiant organinius atitikties metodus, pritaikytus skirtingų programų niuansams.
2. Kokios problemos susijusios su DI reguliavimu?
– Pagrindinės problemos apima DI naudojimo ribų apibrėžimą, problemas dėl duomenų piktnaudžiavimo ir intelektinės nuosavybės teisių apsaugą. Be to, nerimaujama, kad pernelyg griežti reguliavimai gali slopinti inovacijas arba priversti įmones persikelti į švelnesnes jurisdikcijas.
3. Kokios prieštaringos situacijos kyla dėl DI ir autorinių teisių pažeidimų?
– Svarbi prieštara kyla dėl autorinių teisių saugomų medžiagų naudojimo mokant DI modelius. Tokios įmonės kaip OpenAI ir Google sulaukia kritikos dėl galimo autorinių teisių įstatymų pažeidimo, naudojant didelius duomenų rinkinius, kurie gali apimti nuosavybės darbus be būtinų sutikimų.
Didžiųjų technologijų korporacijų, skatinančių švelnesnius reguliavimus, pranašumai
1. Inovacijų skatinimas:
– Lankstesni reguliavimai gali paskatinti novatoriškus DI technologijų naudojimus, leidžiant įmonėms eksperimentuoti su naujomis idėjomis be per didelės baimės dėl baudų.
2. Įgyvendinimo greitis:
– Laisvesni reguliavimai gali lemti greitesnį DI technologijų pritaikymą ir integravimą įvairiose srityse, galiausiai naudodami ir vartotojams, ir įmonėms.
3. Pasaulinis konkurencingumas:
– Sukurdama aplinką, palankią technologijų augimui, ES gali išlaikyti geriausius talentus ir skatinti startuolius, taip išlaikydama savo poziciją pasaulinėje arenoje.
Švelnių reguliavimo metodų trūkumai
1. Viešosios saugos rizikos:
– Laisvi reguliavimai gali teikti pirmenybę greičiui prieš saugumą, kas gali sukelti DI sistemų diegimą, kurios nebuvo kruopščiai ištirtos dėl galimų rizikų, įskaitant šališkumą ar žalingus rezultatus.
2. Atsakomybės erozija:
– Reglamentų sistema, trūkstanti griežtumo, gali apsunkinti atsakomybės užtikrinimą tarp įmonių, kas gali sukelti iššūkių laikant organizacijas atsakingas už neigiamas pasekmes, kylančias iš DI diegimo.
3. Kūrėjų išnaudojimo galimybės:
– Be aiškių taisyklių dėl autorinių teisių ir duomenų naudojimo, kyla pavojus, kad turinio kūrėjai, menininkai ir autoriai gali toliau būti išnaudojami be pakankamos kompensacijos ar pripažinimo.
Išvada
Kol ES galutinai rengia išsamius DI reguliavimus, balansas tarp inovacijų skatinimo ir viešosios saugos užtikrinimo tampa vis sudėtingesnis. Technologijų milžinų stūmimas už švelnesnių reguliavimų pabrėžia nuolatines diskusijas, kaip geriausiai naršyti besivystančio dirbtinio intelekto kraštovaizdyje. Suinteresuotos šalys turi likti budrios, sprendžiant tiek galimybes, tiek rizikas, kurios lydi DI vystymą.
Daugiau apie šią temą rasite ES oficiali svetainė ir TechCrunch.