ICLR 2026 | PIL:基于线性代理的不可学习样本生成方法
机器之心·2026-02-17 03:36

不可学习样本(Unlearnable Examples)是一类用于数据保护的技术,其核心思想是在原始数据中注入人类 难以察觉的微小扰动,使得未经授权的第三方在使用这些数据训练模型时,模型的泛化性能显著下降,甚 至接近随机猜测,从而达到阻止数据被滥用的目的。 论文链接: https://arxiv.org/abs/2601.19967 代码已开源: https://github.com/jinlinll/pil 3. 利用扰动在其他模型上的迁移性实现防护效果。 这种对深度模型的依赖带来了若干问题: 例如,对于摄影师公开发布的作品或用户分享的个人照片,在添加扰动后,图像在视觉上几乎不发生变 化;但若这些数据被用于训练图像分类模型,其测试准确率可能会从 90% 降至 10% 左右。 随着深度模型对大规模数据依赖程度的不断提升,不可学习样本逐渐成为数据隐私与模型安全领域的重要 研究方向。然而,现有方法在实际应用中仍面临显著的效率瓶颈。 现有方法的效率瓶颈 当前主流的不可学习样本生成方法大多依赖深度神经网络(DNN)作为代理模型。其典型流程包括: 核心观察:不可学习样本与模型线性化 我们关注到一个关键现象: 不可学习样 ...

ICLR 2026 | PIL:基于线性代理的不可学习样本生成方法 - Reportify