Novi pristupi zaštiti autorskih prava u generativnoj umjetnoj inteligenciji

Generativna umjetna inteligencija (AI) dobila je ogromno priznanje zbog sposobnosti da revolucionira kreativnost demokratizacijom stvaranja sadržaja. Međutim, porast alata generativne AI podigao je zabrinutost u vezi s intelektualnim vlasništvom i zaštitom autorskih prava. Iako je kreativni potencijal ovih AI modela široko priznat, postoji hitna potreba za rješavanjem potencijalnih povreda autorskih prava koje mogu nastati njihovom primjenom.

Generativni alati umjetne inteligencije, poput ChatGPT-a, temelje se u velikoj mjeri na temeljnim AI modelima koji su obučeni na ogromnim količinama podataka. Ti modeli se hrane tekstualnim ili slikovnim podacima prikupljenim s interneta, omogućavajući im da razumiju odnose između različitih informacija. Korištenjem naprednih tehnika strojnog učenja poput dubokog učenja i transfernog učenja, generativna AI može imitirati kognitivne i sposobnosti razmišljanja, omogućujući joj obavljanje širokog spektra zadataka.

Jedan od glavnih izazova povezanih s generativnom AI je upečatljiva sličnost između AI-generiranih izlaza i materijala pod zaštitom autorskih prava. To predstavlja značajan problem jer postavlja pitanja o odgovornosti pojedinaca i tvrtki kada generativni AI izlazi povređuju autorska prava.

Jedno od područja zabrinutosti predstavlja potencijal za povrede autorskih prava putem selektivnih strategija poticanja. To znači da korisnici mogu nesvjesno stvarati tekstove, slike ili videozapise koji krše autorske zakone. Iako generativni AI alati pružaju izlaze bez upozorenja o mogućim povredama, važno je uspostaviti mjere kako bi se osiguralo da korisnici ne krše autorska prava nesvjesno.

Tvrtke generativne AI tvrde da AI modeli obučeni na autorskim djelima ne krše izravno autorsko pravo, budući da su ti modeli dizajnirani da nauče asocijacije između elemenata tekstova i slika umjesto da kopiraju same podatke za obuku. Stability AI, tvorac generatora slika Stable Diffusion, tvrdi da izlazne slike koje pruža kao odgovor na određene tekstualne poticaje vjerojatno neće snažno podsjećati na određene slike iz podataka za obuku.

Međutim, revizijske studije pokazale su da krajnji korisnici generativne AI i dalje mogu izdati poticaje koji rezultiraju povredama autorskih prava stvaranjem djela koja snažno podsjećaju na autorski sadržaj. Ove studije, koje su proveli znanstvenik za računalne znanosti Gary Marcus i umjetnik Reid Southern, pružaju jasne primjere kako generativni AI modeli proizvode slike koje krše autorska prava.

Otkrivanje povreda autorskih prava u generativnim AI modelima zahtijeva identifikaciju bliske sličnosti između izražajnih elemenata stilski sličnog djela i originalnog izraza u određenim djelima umjetnika. Istraživači su pokazali učinkovitost metoda poput napada na ekstrakciju obrazaca podataka i ekstrahirajuće memorizacije u oporavku pojedinačnih primjera obuke, uključujući zaštićene logotipe i fotografije osoba.

Rješavanje ovog izazova povrede autorskih prava u generativnoj AI nazvano je “Snoopy problem” od strane pravnih stručnjaka. Sličnost s autorskim djelom, poput crtane likovne figure Snoopy, povećava vjerojatnost kopiranja od strane generativnih AI modela u usporedbi s određenom slikom. Istraživači u računalnom vidu istražuju različite metode za otkrivanje povrede autorskih prava, uključujući otkrivanje logotipa za identifikaciju krivotvorenih proizvoda. Ove metode, zajedno s uspostavljanjem podrijetla sadržaja i autentičnosti, mogu doprinijeti rješavanju problema povrede autorskih prava u generativnoj AI.

Kako bi se ublažile povrede autorskih prava, neki istraživači AI predložili su metode koje omogućuju generativnim AI modelima da ‘zaborave’ autorske podatke. Određene tvrtke za umjetnu inteligenciju, poput Anthropic, poduzele su proaktivni pristup time što su se obvezale da neće koristiti podatke proizvedene od svojih korisnika za obučene napredne modele. Nadalje, prakse poput red tima i prilagodbe procesa obuke modela kako bi se smanjila sličnost između izlaza generativne AI i autorskog materijala mogu pomoći u rješavanju problema.

Iako je odgovornost generirana u AI tvrtkama za izgradnju zaštite od povrede autorskih prava, regulacija i donošenje politika također igraju ključnu ulogu. Ustavnim postavljanjem zakonskih i regulatornih smjernica mogu se osigurati najbolje prakse za sigurnost autorskih prava. Na primjer, tvrtke koje razvijaju generativne AI modele mogu implementirati mehanizme filtriranja ili ograničiti izlaze modela kako bi umanjile povredu autorskih prava. Regulativno posredovanje može biti potrebno kako bi se postigla ravnoteža između zaštite intelektualnog vlasništva i poticanja inovacija u području generativne AI.

Važno je adresirati zabrinutosti oko povrede autorskih prava u generativnoj AI jer ove tehnologije nastavljaju oblikovati kreativni pejzaž. Kroz kolektivne napore tvrtki za umjetnu inteligenciju, istraživača, regulatornih tijela i stvaratelja sadržaja, moguće je pronaći rješenja koja omogućavaju transformacijsku moć generativne AI dok se štite autorska prava.

Često postavljana pitanja

The source of the article is from the blog smartphonemagazine.nl

Privacy policy
Contact