划重点: 1. 🤖 艺术家反击AI:艺术家可以使用一种名为Nightshade的毒害新工具,向他们的艺术用损图像注入隐形的像素 ,使AI模型产生错误的家全击工具可据认知
。 2. 📜 背景:AI公司依赖大量的新反型训练数据,包括来自艺术家的坏训创作,引发了一系列法律诉讼。练数 3. 💡 希望与风险:Nightshade的毒害开发者希望通过这一工具重塑AI与艺术家之间的权力平衡,但也承认可能被滥用 。艺术用损 10月24日 消息:自 ChatGPT 几乎一年前登场以来,家全击工具可据生成式人工智能(AI)进入了高速发展的新反型时代,但反对声音也逐渐增强 。坏训许多艺术家、练数娱乐人士、毒害表演者甚至唱片公司已经对AI公司提起了诉讼,艺术用损其中一些诉讼涉及 ChatGPT 制造商 OpenAI,家全击工具可据原因是这些新工具背后的“秘密武器”:训练数据 。 也就是说,这些AI模型需要访问大量的多媒体内容并从中学习,包括艺术家创作的文字材料和图像,而这些艺术家既没有事先知道,也没有机会反对他们的作品被用于训练新的商业AI产品。 图源备注:图片由AI生成
,图片授权服务商Midjourney 在这些AI模型的训练数据集中 ,许多包括从网络上抓取的材料
,这一做法在用于索引他们的材料以提供搜索结果时,以前大多受到艺术家的支持
。但现在
,许多人已经反对这种做法,因为它允许通过AI创建竞争性作品 。 即使没有提起诉讼
,艺术家也有机会利用技术来对抗AI 。日本房产麻省理工技术评论杂志提到了一个还在开发中的名为Nightshade的新开源工具。艺术家可以将Nightshade添加到他们的图像中,然后上传到网络,这个工具可以以一种对人眼隐形的方式改变像素 ,但对寻求对其进行训练的AI模型来说 ,却“毒害”了艺术品
。 Nightshade由芝加哥大学的研究人员在计算机科学教授Ben Zhao的指导下开发,并将作为其先前产品Glaze的可选设置添加,Glaze是另一款在线工具,可以掩盖数字艺术品并改变其像素以混淆AI模型对其风格的认知。 就Nightshade而言 ,艺术家对抗AI的反击更进一步:它使AI模型学习错误的物体和景物名称
。例如 ,研究人员通过在像素中注入信息,让图像中的狗看起来像猫 。在仅对50张被“毒害”的图像样本进行采样和学习后 ,AI开始生成具有奇怪腿和不安视觉效果的狗的图像。在100张毒害样本之后
,当用户要求生成一只狗时,它可靠地生成一只猫 。经过300张毒害样本后,任何对猫的请求都会返回一个几乎完美的狗。 研究人员使用了开源的文本到图像生成模型 Stable Diffusion 来测试Nightshade,并获得了上述结果。由于生成式AI模型的工作方式的特性
,即将概念上相似的词语和想法分组为称为“嵌入”的空间集群,Nightshade还成功追踪 Stable Diffusion 并在使用“哈士奇”、日本招聘“小狗”和“狼”这些词语提示时返回猫的图像。 此外,Nightshade的数据毒害技术难以防御 ,因为它需要AI模型开发人员清除包含被毒害像素的任何图像
,而这些像素是经过设计的
,对人眼来说并不明显,甚至可能连软件数据抓取工具也难以检测到。 已经被摄入到AI训练数据集中的任何被毒害的图像也需要被检测并移除。如果AI模型已经在其上进行了训练,那么它很可能需要重新训练。 尽管研究人员承认他们的工作可能被恶意利用
,但根据麻省理工技术评论杂志对他们工作的文章,他们“希望通过这一工具帮助重塑AI公司与艺术家之间的权力平衡,从而创建一个强大的威慑力,防止侵犯艺术家的版权和知识产权”。 根据该报道 ,研究人员已将他们关于制作Nightshade的工作提交给计算机安全会议Usinex的同行评审。