研究人员发现了一种用于AI训练的毒害图像的方法

研究人員發現AI訓練的毒害圖像方法

AI生成艺术工具如DALL-E、Midjourney和Stable Diffusion的崛起引发了激烈的争论和争议。这些系统可以仅通过从互联网上获取的大量数据集训练,根据文本提示创建逼真的图像和艺术作品。然而,这引发了对版权侵权、同意和滥用艺术家作品的重大担忧。

为应对这一问题,研究人员开发了一种名为Nightshade的全新技术,使创作者能够“毒害”他们的数字艺术作品。其目标是破坏未经允许试图摄取他们内容的AI系统。

像DALL-E 2和Stable Diffusion这样的工具使用的是一种称为神经网络的人工智能形式。它们通过与图片或文本描述配对的大量数据集进行训练。这使它们能够学习文本概念与视觉特征之间的关系。

例如,如果模型看到了标记为“狗”的数百万张图片显示了毛发、四条腿、尾巴等,它就会学会将那些视觉模式与“狗”这个词联系起来。当给出“一个可爱的小狗坐在草地上”的文本提示时,它可以生成全新的逼真狗图像。

关于摄取艺术家内容的担忧

随着训练数据的增加,模型的能力会变得更强大。这导致它们背后的科技巨头未经艺术家同意从互联网上摄取数百万张图片。然而,许多创作者对未经许可或报酬就使用其作品进行AI训练感到不满。

对于艺术家来说,这带来了一个两难选择:分享他们的作品并冒着AI训练滥用的风险,还是保持私密并失去曝光?Instagram、DeviantArt和ArtStation等平台已经成为AI系统的训练数据宝库。

Nightshade如何向AI模型注入毒药

根据最近一篇研究论文,Nightshade提供了一种巧妙的解决方案,通过攻击和破坏AI模型本身来实现。它对数字艺术的像素进行微小的更改,对人类来说是不可见的。但是,这些微调会扰乱AI依赖的图像概念和文本描述。

例如,Nightshade可以修改一张狗的图片,使得AI模型错误地将其误认为自行车或帽子。如果足够多的“毒害”图像在AI的数据集中传播,它将在文本和图像之间产生离奇的连接。

测试显示,Nightshade可以使Stable Diffusion等AI模型生成完全超现实和无意义的艺术作品。例如,经过50张被毒害的样本之后,狗的图像变成了四肢过多的生物,变形的卡通脸。在摄取300张被毒害的狗照片之后,Stable Diffusion甚至在被要求创作一只狗时生成了猫。

Nightshade的攻击利用了神经网络的黑盒特性。在庞大的数据集中追踪污染的原因很复杂。这意味着删除毒害数据就像大海捞针一样困难。

攻击还会在相关概念之间传播。因此,毒害“幻想艺术”图像会让AI对“龙”或“城堡”等相关术语感到困惑。这使得在规模上手动清理Nightshade的影响几乎是不可能的。

给艺术家一种重要的反击方式

鉴于AI内容生成的法律灰色地带,Nightshade代表了创作者的一种重要战术选择。它使他们能够以自动化的方式直接破坏从他们作品中获利的系统。研究人员计划将其整合到名为Glaze的应用程序中,该应用程序已经遮盖了AI的艺术作品。

随着Nightshade即将成为开源软件,我们可能会看到多个可以大规模毒害AI模型的版本。这可能会迫使生成平台彻底改变其数据收集方法并正确归功于艺术家。但AI开发者也在竞相寻找检测和清除此类攻击的方法。目前,Nightshade为创作者提供了一个重要的工具,帮助他们在AI艺术武器竞赛中重新夺回控制权,但很可能只能持续很短的时间,直到开发出能够检测此类毒害图像的自动化系统。

特色图片来源:Willo M.的图片;Pexels网站;谢谢!