划重点: 1. 🤖 艺术家反击AI:艺术家可以使用一种名为Nightshade的毒害新工具
,向他们的艺术用损图像注入隐形的像素 ,使AI模型产生错误的家全击工具可据认知
。 2. 📜 背景:AI公司依赖大量的新反型训练数据
,包括来自艺术家的坏训创作,引发了一系列法律诉讼
。练数出国劳务中介费不肯退该找什么部门 3. 💡 希望与风险:Nightshade的毒害开发者希望通过这一工具重塑AI与艺术家之间的权力平衡
,但也承认可能被滥用 。艺术用损 10月24日 消息:自 ChatGPT 几乎一年前登场以来
,家全击工具可据生成式人工智能(AI)进入了高速发展的新反型时代
,但反对声音也逐渐增强
。坏训许多艺术家、练数娱乐人士、毒害表演者甚至唱片公司已经对AI公司提起了诉讼,艺术用损其中一些诉讼涉及 ChatGPT 制造商 OpenAI,家全击工具可据原因是这些新工具背后的“秘密武器”:训练数据 。 也就是澳大利亚华人雇主直招说,这些AI模型需要访问大量的多媒体内容并从中学习,包括艺术家创作的文字材料和图像 ,而这些艺术家既没有事先知道,也没有机会反对他们的作品被用于训练新的商业AI产品。 图源备注 :图片由AI生成,图片授权服务商Midjourney 在这些AI模型的训练数据集中,许多包括从网络上抓取的材料 ,这一做法在用于索引他们5岁去澳大利亚打工材料以提供搜索结果时,以前大多受到艺术家的支持 。但现在,许多人已经反对这种做法,因为它允许通过AI创建竞争性作品。 即使没有提起诉讼,艺术家也有机会利用技术来对抗AI
。麻省理工技术评论杂志提到了一个还在开发中的www.hijob.jp日本招聘网站名为Nightshade的新开源工具
。艺术家可以将Nightshade添加到他们的图像中,然后上传到网络
,这个工具可以以一种对人眼隐形的方式改变像素,但对寻求对其进行训练的AI模型来说
,却“毒害”了艺术品 。 Nightshade由芝加哥大学的研究人员在计算机科学教授Ben Zhao的指导下开发,并将作为其先前产品Glaze的可选设置添加,Glaze是另一款在线工具,可以掩盖数字艺术品并改变其像素以混淆AI模型对其风格的认知 。 就Nightshade而言,艺术家对抗AI的反击更进一步:它使AI模型学习错误的物体和景物名称 。例如,研究人员通过在像素中注入信息,让图像中的狗看起来像猫。在仅对50张被“毒害”的图像样本进行采样和学习后
,AI开始生成具有奇怪腿和不安视觉效果的狗的图像。在100张毒害样本之后,当用户要求生成一只狗时,它可靠地生成一只猫。经过300张毒害样本后
,任何对猫的请求都会返回一个几乎完美的狗
。 研究人员使用了开源的文本到图像生成模型 Stable Diffusion 来测试Nightshade,并获得了上述结果
。由于生成式AI模型的工作方式的特性 ,即将概念上相似的词语和想法分组为称为“嵌入”的空间集群,Nightshade还成功追踪 Stable Diffusion 并在使用“哈士奇”、“小狗”和“狼”这些词语提示时返回猫的日本买房图像。 此外
,Nightshade的数据毒害技术难以防御 ,因为它需要AI模型开发人员清除包含被毒害像素的任何图像 ,而这些像素是经过设计的,对人眼来说并不明显
,甚至可能连软件数据抓取工具也难以检测到。 已经被摄入到AI训练数据集中的任何被毒害的图像也需要被检测并移除
。如果AI模型已经在其上进行了训练
,那么它很可能需要重新训练。 尽管研究人员承认他们的工作可能被恶意利用,但根据麻省理工技术评论杂志对他们工作的文章
,他们“希望通过这一工具帮助重塑AI公司与艺术家之间的权力平衡 ,从而创建一个强大的威慑力
,防止侵犯艺术家的版权和知识产权”。 根据该报道,研究人员已将他们关于制作Nightshade的工作提交给计算机安全会议Usinex的同行评审
。