艺术家可以通过从内部破坏艺术生成器来抵制AI的威胁

想要探索生成式人工智能的前沿进展吗?订阅我们的中文简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!点击订阅,https://rengongzhineng.io/

艺术家们如何反击那些想要利用他们的作品来训练AI的科技公司的随意行为?一个研究小组有了一个新颖的想法:将一种微妙的“毒药”植入艺术品本身,从内部消灭AI艺术生成器。

艺术家可以通过从内部破坏艺术生成器来抵制AI的威胁_第1张图片

芝加哥大学的计算机科学教授,同时也是AI数据挖掘行为的直言不讳的批评家Ben Zhao向《麻省理工科技评论》透露,他和他的团队开发的新工具,“夜shade”,正如其名—任何使用图像训练AI的模型都会被“毒害”。到目前为止,艺术家对抗AI公司的唯一选择是起诉他们,或者希望开发者遵守艺术家自己的退出请求。

这种工具可以在像素级别操纵图像,以一种肉眼无法检测的方式破坏它。一旦有足够多的这些扭曲图像被用来训练AI,例如Stability AI的Stable Diffusion XL,整个模型就开始崩溃。在团队将数据样本引入SDXL的一个版本后,模型开始将“汽车”的提示解释为“牛”。狗被解释为猫,而帽子则变成了蛋糕。同样,不同的风格出现了所有奇特的东西。对“卡通”的提示提供了让人联想到19世纪印象派的艺术。

它还起到了保护个别艺术家的作用。如果你要求SDXL以著名的科幻和奇幻艺术家迈克尔·惠兰的风格创作一幅画,被毒害的模型创造的东西与他们的作品相去甚远。

根据AI模型的大小,你需要数百或更可能是数千张被毒害的图像来创建这些奇怪的幻觉。不过,这可能会迫使所有开发新的AI艺术生成器的人在使用从互联网上刮来的训练数据之前三思而后行。

Stability AI的一位发言人告诉Gizmodo,“Stability AI致力于公平代表和减少偏见”,并补充说:“当我们开始训练SDXL 1.0时,我们努力给模型提供一个更加多样化和广泛的数据集。这包括使用复杂的筛选器,创造一个更具全球代表性的常见项目结果。我们总是在努力学习和改进,并希望后续模型将更有效地避免偏见。”

艺术家们有什么工具来对抗AI训练? 赵教授也是帮助制作Glaze的团队的负责人,Glaze是一种可以创建一种“风格斗篷”的工具,用来掩盖艺术家的图像。它以类似的方式扰乱图像上的像素,从而误导尝试模仿艺术家及其作品的AI艺术生成器。赵教授告诉《麻省理工科技评论》,Nightshade将作为Glaze的另一种工具集成,但也将在开源市场上发布,以供其他开发者创建类似的工具。

还有其他研究人员发现了一些方法可以使图像免疫AI的直接操纵,但这些技术并没有阻止最初用于训练艺术生成器的数据抓取技术。Nightshade是迄今为止为艺术家提供保护作品机会的少数,也可能是最具战斗性的尝试之一。

也有一种新兴的努力试图区分真实图像和AI创造的图像。谷歌旗下的DeepMind声称,它已经开发出一种水印ID,可以识别一幅图像是否由AI创建,无论它可能如何被操纵。这些水印实际上在做与Nightshade相同的事情,以一种肉眼无法察觉的方式操纵像素。一些最大的AI公司已承诺在未来给生成的内容加上水印,但像Adobe的元数据AI标签这样的当前努力实际上并没有提供任何真正的透明度。

Nightshade对于那些积极使用艺术家作品来训练他们的AI的公司可能是毁灭性的,比如DeviantArt。DeviantArt社区已经对站点内置的AI艺术生成器有了非常负面的反应,如果足够多的用户毒害他们的图像,它可能会迫使开发者手动找到每一个被毒害图像的实例,否则就会重置整个模型的训练。

不过,该程序将无法更改任何现有模型,如SDXL或最近发布的DALL-3。这些模型都已经接受了艺术家过去作品的训练。像Stability AI、Midjourney和DeviantArt这样的公司已经因使用他们的版权作品来训练AI而被艺术家起诉。还有许多其他诉讼攻击像谷歌、Meta和OpenAI这样的AI开发者,因为他们未经许可使用版权作品。公司和AI支持者辩称,由于生成性AI根据那些训练数据创造新内容,所有那些书籍、论文、图片和艺术品在训练数据中都属于合理使用。

OpenAI的开发者在他们的研究论文中指出,他们最新的艺术生成器可以创造更真实的图像,因为它是根据该公司自己的定制工具生成的详细字幕进行训练的。该公司没有透露有多少数据实际上进入了其新的AI模型的训练(大多数AI公司都不愿意透露任何关于他们的AI训练数据的信息),但随着时间的推移,抵制AI的努力可能会升级。随着这些AI工具变得更加先进,它们需要更多的数据来支持它们,艺术家们可能愿意采取更大的措施来对抗它们。

内哥觉得这个不具有很好的前景。就算暂时有效,随着各个模型的调整,难免会进入军备竞赛的境地,这个不是这个研究机构能够持续跟进的东西,因为它的对手将是各个巨头,微软,amazon, Google等等。 出发点是对的,但是这个方法不可取

你可能感兴趣的:(人工智能,机器学习,深度学习)