Novecoši pieeja autortiesību aizsardzībai Generatīvajā AI

Generatīvajai mākslīgajai intelektai (AI) ir guvis milzīgu atzinību par tās spēju revolucionizēt radošumu, demokratizējot satura radīšanu. Tomēr generatīvo AI rīku uzplaukums ir izraisījis bažas par intelektuālā īpašuma un autortiesību aizsardzību. Lai gan šo AI modeļu radošais potenciāls ir plenāri atzīts, ir steidzami jārisina potenciālās autortiesību pārkāpumu problēmas, kas var rasties no to izmantošanas.

Generatīvās AI rīki, piemēram, ChatGPT, stipri balstās uz pamata AI modeļiem, kuri ir apmācīti ar lielu datu apjomu. Šie modeļi tiek baroti ar teksta vai attēlu datiem, kas iegūti no interneta, ļaujot tiem saprast attiecības starp dažādiem informācijas gabaliem. Izmantojot uzlabotus mašīnmācības tehnikas kā dziļo mācīšanos un transfērmāciju, generatīvā AI spēj imitēt kognitīvās un loģiskās spējas, ļaujot tai veikt plašu uzdevumu klāstu.

Viena no galvenajām problēmām, kas saistītas ar generatīvo AI, ir spilgtā līdzība starp AI radītiem izvadiem un autortiesībām aizsargātiem materiāliem. Tas rada būtisku problēmu, jo tas rada jautājumus par indivīdu un uzņēmumu atbildību gadījumos, kad generatīvo AI izvadi pārkāpj autortiesības.

Viena no jomām, par kuru ir bažas, ir potenciāls autortiesību pārkāpums, izmantojot selektīvas piedziņas stratēģijas. Tas nozīmē, ka lietotāji var nezināmā veidā radīt tekstu, attēlus vai video, kas pārkāpj autortiesību likumus. Lai gan generatīvie AI rīki sniedz izvades bez jebkādiem brīdinājumiem par potenciāliem pārkāpumiem, ir svarīgi ieviest pasākumus, lai nodrošinātu, ka lietotāji neapzināti nepārkāpj autortiesības.

Generatīvā AI uzņēmumi argumentē, ka ar autortiesībām aizsargātajiem darbiem apmācīti AI modeļi nepārkāpj autortiesības, ņemot vērā, ka šie modeļi ir izstrādāti, lai mācītos asociācijas starp rakstu un attēlu elementiem, nevis kopētu pašus apmācības datus. Uzņēmums Stability AI, kas ir attēlu ģeneratora Stable Diffusion radītājs, apgalvo, ka radošie attēli, kas tiek sniegti kā atbilde uz konkrētiem teksta piedzīvojumiem, ir maz ticami līdzināt konkrētiem attēliem no apmācības datiem.

Tomēr pārbaudes studijas ir parādījušas, ka generatīvā AI gala lietotāji joprojām var izdot pavēles, kas rezultē autortiesību pārkāpumos, radot darbus, kas stipri atgādina autortiesību aizsargātu saturu. Šīs studijas, veikušas datorzinātnieks Gary Marcus un mākslinieks Reid Southern, sniedz skaidrus piemērus tam, kā generatīvie AI modeļi radīti attēli, kas pārkāpj autortiesības.

Autortiesību pārkāpumu atklāšana generatīvajos AI modeļos prasa identificēt tuvās līdzības starp izteiksmīgajiem elementiem no stilistiski līdzīga darba un oriģinālo izteiksmi konkrētos darbos no mākslinieka. Pētnieki ir demonstrējuši metodikas efektivitāti, piemēram, apmācības datu ekstrakcijas uzbrukumus un atgūstamus memoriāla emociju atmiņas protokolus, lai atjaunotu individuālas apmācības piemērus, ieskaitot tirdzniecības zīmes logotipus un personu fotogrāfijas.

Šīs autortiesību pārkāpumu risināšanas izaicinājums generatīvajā AI ir tika nosaukts par “Snoopy problēmu” juridisko zinātnieku. Autortiesību aizsargāta darba līdzīgi, piemēram, multfilmas varonis Sunītis, palielina kopiēšanas varbūtību no generatīvajiem AI modeļiem salīdzinājumā ar konkrētu attēlu. Datorredzējuma pētnieki ir izpētījuši dažādas metodes, lai atklātu autortiesību pārkāpumus, ietverot logo atklāšanu, lai atpazītu viltoti produktus. Šīs metodes, kopā ar saturam piedzimšanu un autentiskumu, varētu sekmēt autortiesību pārkāpumu risināšanu generatīvajā AI.

Lai mazinātu autortiesību pārkāpumus, daži AI pētnieki ir ierosinājuši metodes, kas ļauj generatīvajiem AI modeļiem atbrīvoties no autortiesībām aizsargātiem datiem. Noteikti AI uzņēmumi, piemēram, Anthropic, ir pieņēmuši proaktīvu pieeju, apņemoties nelietot datus, kas ražoti viņu klientu laikā, lai trenētu uzlabotus modeļus. Turklāt prakses, piemēram, sarkano komandu un modeļa treniņa procesa pielāgošana, lai samazinātu līdzību starp generatīvajiem AI izvadiem un autortiesību aizsargātajiem materiāliem, var palīdzēt risināt šo problēmu.

Lai gan atbildība gulstas uz AI uzņēmumiem, kas izveido aizsardzības vārtus pret autortiesību pārkāpumiem, regulējums un politika arī spēlē svarīgu lomu. Legalitāti aizsargājošu norādījumu un regulu ieviešana var nodrošināt labākos praktiskos risinājumus autortiesību drošībai. Piemēram, uzņēmumi, kas izstrādā generatīvos AI modeļus, var ieviest filtrēšanas mehānismus vai ierobežot modeļa izvades, lai mazinātu autortiesību pārkāpumus. Regulatīvā iejaukšanās var rādīties nepieciešama, lai panāktu līdzsvaru starp intelektuālā īpašuma aizsardzību un inovācijas veicināšanu generatīvā AI jomā.

Ir svarīgi risināt bažas saistībā ar autortiesību pārkāpumiem generatīvajā AI, jo šīs tehnoloģijas turpina veidot radošo ainavu. Caurspīdīgā veidā no AI uzņēmumiem, pētniekiem, politikas veidotājiem un satura radītājiem, ir iespējams atrast risinājumus, kas ļaus izmantot generatīvā AI pārveidojošo spēku, vienlaikus ievērojot autortiesību aizsardzību.

Bieži uzdotie jautājumi

The source of the article is from the blog zaman.co.at

Privacy policy
Contact