新的数据污染工具让艺术家有了防止自己作品被用于AI训练的能力
一种新工具可以让艺术家在将作品上传到网上之前对其艺术作品中的像素添加不可见的更改,这样,如果它被用于构建AI训练数据集,可能会导致生成的模型以混乱且不可预测的方式崩溃。
该工具名为 Nightshade,旨在反击人工智能公司在未经创作者许可的情况下使用艺术家的作品来训练模型的行为。使用它来“毒害”这些训练数据可能会损害图像生成人工智能模型的未来迭代,例如 DALL-E、Midjourney 和 Stable Diffusion,因为它们的一些输出变得无用——狗变成了猫,汽车变成了牛等等。《麻省理工科技评论》独家预览了该研究,该研究已提交计算机安全会议 Usenix 进行同行评审。
OpenAI、Meta、Google 和 Stability AI 等人工智能公司面临着来自艺术家的一系列诉讼,这些艺术家声称他们的受版权保护的材料和个人信息在未经同意或补偿的情况下被窃取。
—— 麻省理工科技评论
发表回复