Nieuwe Tools Helpen Kunstenaars Hun Werk te Beschermen tegen AI Kopieerders

Kunstenaars over de hele wereld worden geconfronteerd met een groeiende zorg doordat kunstmatige intelligentie (AI) tools afbeeldingen genereren die hun unieke stijlen nabootsen. Mignon Zakuga, een boekomslag-illustrator en video game kunstenaar, heeft potentiële klanten ervaren die kozen voor door AI gegenereerde afbeeldingen in plaats van haar werk te laten maken. Dit fenomeen heeft geleid tot zorgen over de toekomst van jonge en opkomende artiesten in de industrie.

Om dit probleem aan te pakken, hebben onderzoekers van de Universiteit van Chicago, Ben Zhao en Heather Zheng, twee nieuwe tools ontwikkeld genaamd Glaze en Nightshade. Deze tools zijn bedoeld om het werk van kunstenaars te beschermen door de pixels van een afbeelding op subtiele, onopvallende manieren te veranderen voor mensen, maar verwarrend voor AI-modellen. Vergelijkbaar met optische illusies, misleiden deze aanpassingen AI-modellen om de afbeelding anders waar te nemen.

Glaze is ontworpen om de unieke stijl van een kunstenaar te maskeren, waardoor AI-modellen niet kunnen leren en hun werk kunnen repliceren. Door “Glazed” afbeeldingen aan trainingsdatasets toe te voegen, raken AI-modellen in de war en produceren ze gemengde en onnauwkeurige resultaten. Nightshade daarentegen hanteert een meer agressieve aanpak door bestaande generatieve AI-modellen te saboteren. De tool verandert potentiële trainingsafbeeldingen in “gif” die AI leert om fundamentele ideeën en afbeeldingen verkeerd te associëren.

Deze tools hebben enige verlichting geboden aan kunstenaars zoals Zakuga, die regelmatig Glaze en Nightshade gebruikt om haar werk te beschermen. Er zijn echter beperkingen aan de tools. Het verhullen van een afbeelding kan tijdrovend zijn en ze kunnen alleen nieuw werk beschermen. Zodra een afbeelding is opgenomen in een AI-trainingsdataset, is het te laat om deze te verhullen. Bovendien is er geen garantie dat deze tools op de lange termijn effectief zullen blijven. Naarmate AI-modellen evolueren, kunnen verhulmethoden achterhaald worden.

Ondanks de huidige beperkingen bieden deze tools een tijdelijke oplossing voor kunstenaars die hun werk willen beschermen tegen AI-kopieerders. Onderzoekers zoals Zhao en Zheng blijven deze tools verfijnen en verbeteren, waarbij ze een balans vinden tussen verstoring en het behouden van de integriteit van een afbeelding. Terwijl het kat-en-muisspel tussen kunstenaars en AI doorgaat, blijft de ontwikkeling van robuuste en toekomstbestendige beschermingstools een uitdaging.

The source of the article is from the blog zaman.co.at

Privacy policy
Contact