New Tools Help Artists Protect Their Work from AI Copycats

Novas Ferramentas Ajudam Artistas a Proteger Seu Trabalho de Imitadores de IA

Start

Artistas ao redor do mundo têm enfrentado uma crescente preocupação à medida que as ferramentas de inteligência artificial (IA) geram imagens que imitam seus estilos únicos. Mignon Zakuga, uma ilustradora de capas de livros e artista de jogos de vídeo, testemunhou potenciais clientes optando por imagens geradas por IA em vez de encomendar seu trabalho. Esse fenômeno tem gerado preocupações sobre o futuro de jovens e artistas emergentes na indústria.

Para combater esse problema, pesquisadores da Universidade de Chicago, Ben Zhao e Heather Zheng, desenvolveram duas novas ferramentas chamadas Glaze e Nightshade. Essas ferramentas visam proteger o trabalho dos artistas ao alterar os pixels de uma imagem de maneira sutil e imperceptível aos humanos, mas confusa para os modelos de IA. Semelhante a ilusões ópticas, essas modificações enganam os modelos de IA para perceberem a imagem de forma diferente.

O Glaze é projetado para mascarar o estilo único de um artista, impedindo que os modelos de IA aprendam e repliquem seu trabalho. Ao introduzir imagens “Glazed” em conjuntos de dados de treinamento, os modelos de IA ficam confusos e produzem saídas misturadas e imprecisas. O Nightshade, por outro lado, adota uma abordagem mais agressiva ao sabotar os modelos de IA generativos existentes. A ferramenta transforma possíveis imagens de treinamento em “veneno” que ensina a IA a associar ideias e imagens fundamentais de forma incorreta.

Essas ferramentas proporcionaram algum alívio a artistas como Zakuga, que utiliza regularmente o Glaze e o Nightshade para proteger seu trabalho. No entanto, as ferramentas têm limitações. Camuflar uma imagem pode ser demorado e só podem proteger novos trabalhos. Uma vez que uma imagem tenha sido incluída em um conjunto de dados de treinamento de IA, é tarde demais para camuflá-la. Além disso, não há garantia de que essas ferramentas permanecerão eficazes a longo prazo. À medida que os modelos de IA evoluem, os métodos de camuflagem podem tornar-se obsoletos.

Apesar das limitações atuais, essas ferramentas oferecem uma solução temporária para artistas que buscam proteger seu trabalho de imitadores de IA. Pesquisadores como Zhao e Zheng continuam a refinar e aprimorar essas ferramentas, encontrando um equilíbrio entre interrupção e a manutenção da integridade de uma imagem. À medida que o jogo de gato e rato entre artistas e IA prossegue, o desenvolvimento de ferramentas robustas e à prova de futuro continua sendo um desafio.

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact

Don't Miss

Protect Your Business from Evolving AI-Based Threats

Proteja Seu Negócio Contra Ameaças Baseadas em IA em Evolução.

Cuidado com a Dark Web: Compreenda as atividades de crimes
Revolutionizing Accessibility: Innovations for the Visually Impaired

Revolucionando a Acessibilidade: Inovações para Deficientes Visuais

Neste inovador vídeo, são apresentadas técnicas inovadoras por indivíduos com