Neue Tools helfen Künstlern, ihre Arbeit vor KI-Nachahmern zu schützen

Künstler auf der ganzen Welt sehen sich mit einem wachsenden Problem konfrontiert, da künstliche Intelligenz (KI) Bilder erzeugt, die ihre einzigartigen Stile nachahmen. Mignon Zakuga, eine Buchcover-Illustratorin und Videospielkünstlerin, hat beobachtet, wie potenzielle Kunden sich für KI-generierte Bilder entscheiden, anstatt sie mit der Arbeit zu beauftragen. Dieses Phänomen hat Sorgen um die Zukunft junger und aufstrebender Künstler in der Branche ausgelöst.

Um dieses Problem anzugehen, haben Forscher der University of Chicago, Ben Zhao und Heather Zheng, zwei neue Tools namens Glaze und Nightshade entwickelt. Diese Tools zielen darauf ab, die Arbeit von Künstlern zu schützen, indem sie die Pixel eines Bildes auf subtile, für Menschen unmerkliche Weise verändern, aber für KI-Modelle verwirrend sind. Ähnlich wie optische Täuschungen können diese Modifikationen KI-Modelle dazu bringen, das Bild anders wahrzunehmen.

Glaze wurde entwickelt, um den einzigartigen Stil eines Künstlers zu verschleiern und zu verhindern, dass KI-Modelle ihre Arbeit erlernen und replizieren. Indem „glasierte“ Bilder in Trainingsdatensätzen eingeführt werden, sind KI-Modelle verwirrt und produzieren gemischte und ungenaue Ergebnisse. Nightshade hingegen verfolgt einen aggressiveren Ansatz, indem bestehende generative KI-Modelle sabotiert werden. Das Tool verwandelt potenzielle Trainingsbilder in „Gift“, das KI beibringt, grundlegende Ideen und Bilder falsch zu verknüpfen.

Diese Tools haben Künstlern wie Zakuga etwas Erleichterung verschafft, die regelmäßig Glaze und Nightshade verwenden, um ihre Arbeit zu schützen. Die Tools haben jedoch auch Grenzen. Das Verbergen eines Bildes kann zeitaufwendig sein, und sie können nur neue Arbeiten schützen. Sobald ein Bild in einen KI-Trainingsdatensatz aufgenommen wurde, ist es zu spät, es zu verbergen. Darüber hinaus gibt es keine Garantie dafür, dass diese Tools langfristig wirksam bleiben. Wenn sich KI-Modelle weiterentwickeln, können Verbergungsmethoden veraltet werden.

Trotz der aktuellen Einschränkungen bieten diese Tools eine vorübergehende Lösung für Künstler, die ihre Arbeit vor KI-Kopierern schützen möchten. Forscher wie Zhao und Zheng arbeiten weiterhin daran, diese Tools zu verfeinern und zu verbessern, und suchen dabei nach einem Gleichgewicht zwischen Störung und Aufrechterhaltung der Integrität eines Bildes. Während das Katz-und-Maus-Spiel zwischen Künstlern und KI anhält, bleibt die Entwicklung robuster und zukunftssicherer Schutzwerkzeuge eine Herausforderung.

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact