人工智能与版权保护:紫罗兰提供新方法

艺术家和计算机科学家已经发现了一种新颖的方法,可以保护他们的受版权保护的图像不受人工智能(AI)程序复制。他们正在利用一种称为夜影(Nightshade)的工具,由芝加哥大学的研究人员开发,向AI模型“注入毒素”以加工图像。虽然人类可能不会注意到这些变化,但它们足以让AI平台感到困惑。

Karla Ortiz 是一位著名的概念艺术家和插画师,她是那些已经采纳使用夜影来保护作品免受未经许可扫描和复制的艺术家之一。Ortiz 的作品曾在《星球大战》和《黑豹》等知名项目中亮相,她对未经授权使用她的作品表示关切,强调了在这种情况下艺术家缺乏信用和补偿。

夜影利用了AI模型与人类感知图像的不同之处。领先研究人员 Shawn Shan 解释说,在机器看来,图像是由代表像素值的数字数组组成的。通过对数千个像素进行微小更改,夜影创建了图像的扭曲版本,对AI模型来说这个版本看上去与原始图片有明显不同。

这个工具会自动选择所需的概念来迷惑AI系统。例如,在照片中应用一系列微妙的扭曲可能会导致AI模型将狗识别为猫。在实验中,只需要大约 30 张“毒害”图像就可以显著影响模型的认知,并产生意想不到的结果。

虽然夜影可能会干扰特定的AI应用程序,但芝加哥大学实验室负责人 Ben Zhao 认为它不会对AI图像生成器的整体功能构成威胁。相反,他将其视为一种防止公司未经妥当补偿使用艺术家作品的手段。赵教授打算继续免费提供夜影供使用。

在AI领域,已经存在一些选择供版权持有者选择退出并保护他们的内容的选项。然而,AI工具的普及已经超过了这些努力,需要额外的解决方案。在缺乏强有力规定之下,夜影作为一种有价值的工具,展示了艺术家保护知识产权的决心。

虽然夜影为未经许可使用提供了临时防御,一些专家认为AI开发人员可能会对此类攻击做出反应并制定对策。人工智能和伦理学教授 Sonja Schmer-Galunder 认为,技术防御的发展将减轻夜影等工具的影响。

芝加哥大学的研究人员承认AI平台有可能更新其系统并对抗夜影的图像“毒害”技术。然而,赵强调,让个人承担保护权利的责任是不公平的。他将这种状态比作期待行人在过马路时需要个别要求司机不要撞到他们的情况。

尽管如此,夜影仍然是一种重要的工具,供像 Karla Ortiz 这样寻求保护其作品的艺术家使用。Ortiz 将其视为向潜在侵权者警告未经许可使用后果的有效手段,并已参与一项针对多家公司(包括 Stability AI 和 DeviantArt)的侵权诉讼案。

随着AI领域的不断发展,围绕知识产权保护的伦理问题仍然存在。夜影等工具提供了即时帮助,但要解决艺术家和内容创建者在数字时代面临的挑战,需要一个全面和平衡的监管和技术发展方法。

有关夜影和AI与知识产权主题的更多信息,请访问芝加哥大学的网站这里

The source of the article is from the blog revistatenerife.com

Privacy policy
Contact