Universitetet i Chicago utviklar Nightshade 1.0 for å verne om rettane til innhaldsskaparar

Ein gruppe forskarar frå Universitetet i Chicago har lansert Nightshade 1.0, eit avansert verktøy for forureining av data, skapt for å bekjempe den uautoriserte bruken av maskinlæringsmodellar. Dette verktøyet jobbar saman med Glaze, eit defensivt verktøy for vern som tidligare vart omtalt av The Register.

Nightshade er spesifikt designa for å rette seg mot biletfiler og har som mål å tvinge maskinlæringsmodellar til å respektere rettane til innhaldsskaparar. Ved å forureine biletedata skapar Nightshade forstyrringar for modellar som inntar uautorisert innhald. Verktøyet minimiserer synlige endringar i det originale biletet for det menneskelege auge, samtidig som det forvirrar AI-modellar. Til dømes kan eit bilete sjå ut som eit skyggebilete av ei ku på ein grønn eng for menneske, men ein AI-modell kan tolke det som ei handveske som ligg i graset.

Teamet bak Nightshade inkluderer doktorgradsstudenter Shawn Shan, Wenxin Ding og Josephine Passananti, samt professorene Heather Zheng og Ben Zhao frå Universitetet i Chicago. Dei har skissert detaljane til Nightshade i ei forskingsartikkel publisert i oktober 2023. Teknikken som blir brukt i Nightshade er ein promptspesifikk forureiningsangrep, der bilete med vilje blir manipulert for å uklare grensene for dei sanne merkelappane under modelltrening.

Introduksjonen av Nightshade er eit svar på den aukande bekymringa rundt den uautoriserte innhøstinga av data, som har ført til fleire juridiske kampar mellom innhaldsskaparar og AI-bedrifter. Forskarane argumenterer for at Nightshade kan fungere som eit kraftig verktøy for innhaldseigarar for å beskytte intellektuell eigedom frå modelltrenarar som overser opphavsrettsvarsel og andre former for tillatingar.

Det er viktig å merke seg at Nightshade har visse avgrensingar. Programvaren kan føre til subtile forskjellar frå det originale biletet, spesielt for kunstverk med flate fargar og glatte bakgrunnar. I tillegg kan det utviklast metodar for å motverke Nightshade i framtida, men forskarane er overtydde om at dei kan tilpasse programvaren sin tilsvarende.

Teamet foreslår at kunstnarar også brukar Glaze i kombinasjon med Nightshade for å verne om dei visuelle stilane sine. Medan Nightshade fokuserer på bilededata, endrar Glaze bilete for å hindre modellar frå å reprodusere ein kunstnars visuelle stil. Ved å beskytte både innhaldet og stilen til arbeidet sitt kan kunstnarar oppretthalde ryktet sitt som merkevare og avskrekke uautorisert reproduksjon av den kunstneriske identiteten deira.

Sjølv om Nightshade og Glaze for tida krev separat nedlasting og installasjon, jobbar teamet med å utvikle ei samla versjon for å forenkle prosessen for innhaldsskaparar.

Nightshade Spørsmål og svar:

Spørsmål: Kva er Nightshade 1.0?
Svar: Nightshade 1.0 er eit verktøy for forureining av data utvikla av forskarar frå Universitetet i Chicago for å bekjempe den uautoriserte bruken av maskinlæringsmodellar.

Spørsmål: Kva er formålet med Nightshade?
Svar: Nightshade er designa for å tvinge maskinlæringsmodellar til å respektere rettane til innhaldsskaparar ved å forureine biletedata og skape forstyrringar for modellar som inntar uautorisert innhald.

Spørsmål: Korleis fungerer Nightshade?
Svar: Nightshade minimerer synlege endringar i det originale biletet samtidig som det forvirrar AI-modellar. Det manipulerer biletedata på ein måte som kan få menneske til å oppfatte det som noko, medan AI-modellar tolkar det annerleis.

Spørsmål: Kven utvikla Nightshade?
Svar: Teamet bak Nightshade inkluderer doktorgradsstudenter Shawn Shan, Wenxin Ding og Josephine Passananti, samt professorene Heather Zheng og Ben Zhao frå Universitetet i Chicago.

Spørsmål: Finst det ei forskingsartikkel om Nightshade?
Svar: Ja, forskarane har publisert ei forskingsartikkel der dei skisserte detaljane til Nightshade i oktober 2023.

Spørsmål: Kva er promptspesifikt forureiningsangrep?
Svar: Nightshade nyttar ein teknikk med promptspesifikke forureiningsangrep for å manipulere bilete under modelltrening og uklare grensene for dei sanne merkelappane.

Spørsmål: Kva problem ønskjer Nightshade å løysa?
Svar: Nightshade vart utvikla som respons på bekymringane rundt den uautoriserte innhøstinga av data, som har ført til juridiske kampar mellom innhaldsskaparar og AI-bedrifter.

Spørsmål: Kva avgrensingar har Nightshade?
Svar: Nightshade kan føre til subtile forskjellar frå det originale biletet, særleg for kunstverk med flate fargar og glatte bakgrunnar. Det kan også utviklast metodar for å motverke Nightshade i framtida.

Spørsmål: Kva er Glaze?
Svar: Glaze er eit defensivt vernverktøy som fungerer saman med Nightshade. Det endrar bilete for å hindre modellar frå å reprodusere ein kunstnars visuelle stil.

Spørsmål: Korleis kan kunstnarar verne om arbeidet sitt med Nightshade og Glaze?
Svar: Ved å bruke Nightshade og Glaze saman kan kunstnarar verne både innhaldet og stilen til arbeidet sitt, oppretthalde merkevarens rykte og avskrekke uautorisert reproduksjon.

Definisjonar:

1. Maskinlæringsmodellar: Algoritmar og statistiske modellar som gjer datamaskiner i stand til å lære og ta beslutningar eller gjere prediksjonar utan å bli eksplicit programmerte.

2. Dataforureining: Ein teknikk der skadelege aktørar manipulerer data for å villeie maskinlæringsmodellar og få dei til å produsere feilaktige resultat.

3. Innhaldsskaparar: Individ eller aktør som produserer originale kunstverk, litteratur, musikk osv.

4. Opphavsrettsvarsel: Utsegner som indikerer eigarskapet og rettane til eit spesifikt verk og advarer mot uautorisert bruk eller reproduksjon.

Forslåtte relaterte lenker:

1. Universitetet i Chicago sine nyhende
2. The Register

The source of the article is from the blog foodnext.nl

Privacy policy
Contact