Universitatea din Chicago dezvoltă Nightshade 1.0 pentru a proteja drepturile creatorilor de conținut

Un grup de cercetători de la Universitatea din Chicago a lansat Nightshade 1.0, o unealtă de intoxicare avansată a datelor, creată pentru a combate utilizarea neautorizată a modelelor de învățare automată. Această unealtă funcționează împreună cu Glaze, o unealtă defensivă de protecție, care a fost acoperită anterior de către The Register.

Nightshade este conceput special pentru a viza fișierele de imagini și are ca scop obligarea modelelor de învățare automată să respecte drepturile creatorilor de conținut. Prin intoxicarea datelor imaginilor, Nightshade creează perturbări pentru modelele care absorb conținut neautorizat. Unealta minimizează modificările vizibile la imaginea originală în ochii umani, în timp ce confuzează modelele de IA. De exemplu, o imagine poate apărea ca o imagine umbrită a unei vaci pe un câmp verde pentru oameni, dar un model de IA o poate interpreta ca o geantă aruncată în iarba.

Echipa din spatele Nightshade include studenții doctoranzi ai Universității din Chicago, Shawn Shan, Wenxin Ding și Josephine Passananti, precum și profesorii Heather Zheng și Ben Zhao. Ei au detaliat aspectele Nightshade într-un articol de cercetare publicat în octombrie 2023. Tehnica utilizată în Nightshade este un atac specific prin intoxicare, în care imaginile sunt manipulate deliberat pentru a estompa frontierele etichetelor lor adevărate în timpul antrenamentului modelului.

Introducerea Nightshade este un răspuns la preocupările crescânde cu privire la recoltarea neautorizată a datelor, ceea ce a dus la mai multe bătălii legale între creatorii de conținut și afacerile de IA. Cercetătorii susțin că Nightshade poate servi drept un instrument puternic pentru proprietarii de conținut pentru a-și proteja proprietatea intelectuală de formatori de modele care ignoră notificările de drepturi de autor și alte forme de permisiuni.

Este important de menționat că Nightshade are limite. Software-ul poate duce la diferențe subtile față de imaginea originală, în special pentru lucrările de artă cu culori plate și fundaluri netede. În plus, în viitor pot fi dezvoltate metode de contracarare a Nightshade, dar cercetătorii cred că își pot adapta software-ul corespunzător.

Echipa sugerează artiștilor să utilizeze și Glaze în combinație cu Nightshade pentru a-și proteja stilurile vizuale. În timp ce Nightshade se concentrează pe datele de imagine, Glaze modifică imaginile pentru a împiedica modelele să reproducă stilul vizual al unui artist. Prin protejarea atât a conținutului, cât și a stilului lucrărilor lor, artiștii își pot menține reputația mărcii și pot descuraja reproducerea neautorizată a identității lor artistice.

Deși Nightshade și Glaze necesită în prezent descărcări și instalări separate, echipa lucrează la dezvoltarea unei versiuni combinate pentru a simplifica procesul pentru creatorii de conținut.

Întrebări frecvente despre Nightshade:

Q: Ce este Nightshade 1.0?
A: Nightshade 1.0 este o unealtă de intoxicare a datelor dezvoltată de cercetători de la Universitatea din Chicago pentru a combate utilizarea neautorizată a modelelor de învățare automată.

Q: Care este scopul Nightshade?
A: Nightshade este conceput pentru a obliga modelele de învățare automată să respecte drepturile creatorilor de conținut, prin intoxicarea datelor de imagine și crearea de perturbări pentru modelele care absorb conținut neautorizat.

Q: Cum funcționează Nightshade?
A: Nightshade minimizează modificările vizibile la imaginea originală, în timp ce confuzează modelele de IA. Manipulează datele de imagine într-un mod care poate face ca oamenii să le perceapă ca fiind ceva, în timp ce modelele de IA le interpretează diferit.

Q: Cine a dezvoltat Nightshade?
A: Echipa din spatele Nightshade include studenții doctoranzi Shawn Shan, Wenxin Ding și Josephine Passananti, precum și profesorii Heather Zheng și Ben Zhao de la Universitatea din Chicago.

Q: Există un studiu de cercetare despre Nightshade?
A: Da, cercetătorii au publicat un articol de cercetare care detaliază aspectele Nightshade în octombrie 2023.

Q: Ce este atacul specific prin intoxicare?
A: Nightshade utilizează o tehnică de atac specifică prin intoxicare pentru a manipula imaginile în timpul antrenării modelelor, estompând frontierele etichetelor lor adevărate.

Q: Ce problemă urmărește Nightshade să rezolve?
A: Nightshade a fost dezvoltat ca răspuns la îngrijorările legate de recoltarea neautorizată a datelor, ceea ce a dus la bătălii legale între creatorii de conținut și afacerile de IA.

Q: Care sunt limitele Nightshade?
A: Nightshade poate duce la diferențe subtile față de imaginea originală, în special pentru lucrările de artă cu culori plate și fundaluri netede. În viitor, pot fi dezvoltate și metode de contracarare a Nightshade.

Q: Ce este Glaze?
A: Glaze este o unealtă defensivă de protecție care funcționează împreună cu Nightshade. Aceasta modifică imaginile pentru a împiedica modelele să reproducă stilul vizual al unui artist.

Q: Cum pot artiștii să-și protejeze lucrările cu Nightshade și Glaze?
A: Utilizând Nightshade și Glaze împreună, artiștii își pot proteja atât conținutul, cât și stilul lucrărilor lor, menținându-și reputația de marcă și descurajând reproducerea neautorizată.

Definiții:

1. Modele de învățare automată: Algoritmi și modele statistice care permit computerelor să învețe și să facă predicții sau decizii fără a fi programate explicit.

2. Intoxicarea datelor: O tehnică în care actorii malicioși manipulează datele pentru a induce în eroare modelele de învățare automată și a le determina să producă rezultate incorecte.

3. Creatori de conținut: Indivizi sau entități care produc opere originale de artă, literatură, muzică etc.

4. Notificări de drepturi de autor: Declarații care indică proprietatea și drepturile asupra unei lucrări particulare și avertizează împotriva utilizării sau reproducerii neautorizate.

Linkuri sugerate conexe:

1. Noutăți despre Universitatea din Chicago
2. The Register

The source of the article is from the blog japan-pc.jp

Web Story

Privacy policy
Contact