隐私原则

AI 的被遗忘权:为什么机器取消学习是下一个重大的隐私前沿

探讨“机器取消学习”的挑战,以及被遗忘权如何迫使生成式 AI 和大语言模型进行重新设计。
AI 的被遗忘权:为什么机器取消学习是下一个重大的隐私前沿

2014年,欧洲法院确立了一个具有里程碑意义的原则:“被遗忘权”。这是人类自主权的一次胜利,确保了个人可以要求从搜索引擎结果中删除过时或无关的个人信息。十年来,这意味着删除一个 URL 或擦除一个数据库条目——这是一种外科手术式的、二进制的操作。

但随着我们深入进入生成式 AI 时代,这种手术变得异常复杂。今天,我们的数据不仅仅是存储在行和列中;它被编织进了大语言模型(LLMs)的统计结构中。当模型“学习”你的面部、你的写作风格或你的个人历史时,它并不会保存一个文件,而是调整了数十亿个数学权重。这种从静态存储到概率记忆的转变,在人权与机器架构之间制造了一种根本性的紧张关系。

数字记忆的架构

要理解为什么“取消学习”如此困难,可以将传统的数据库想象成一个文件柜。如果你想移除一份文件,只需拉出文件夹并将其粉碎,文件柜的其余部分保持不变。

生成式 AI 的运作方式更像是一大锅汤。训练过程中使用的每一条数据都是搅拌进肉汤里的原料。你无法在不改变整锅汤味道的情况下,简单地从做好的意大利蔬菜汤中提取出盐或特定的胡椒粒。在 LLM 中,你的个人数据分布在整个神经网络中。由于这些参数是相互依赖的,移除某一个特定人的影响通常需要从头开始重新训练模型——这个过程耗资数百万美元,且需要数月的计算时间。

法律的碰撞

监管机构越来越不愿接受“技术太难”作为借口。在欧洲的 GDPR 和加州的 CCPA 框架下,删除权是与技术无关的。如果一个模型可以幻觉出你的家庭住址或复制你的私人信件,那么该模型在技术上就是在处理你的数据。

我们正看到法院对“数据占有”看法的转变。这不再仅仅关乎文件存放在哪里,而关乎系统的行为方式。如果 AI 可以通过“成员推断攻击”(即黑客探测模型以查看特定数据是否属于其训练集的一部分)重构敏感信息,那么无论原始数据是否已从训练服务器中删除,隐私风险都是实时存在的。

机器取消学习的兴起

作为回应,一个名为“机器取消学习”(Machine Unlearning)的新研究领域应运而生。其目标是开发出能够减去特定数据点的影响,同时又不破坏模型整体效用的算法。

方法 运作方式 优点 缺点
SISA (分片) 将模型训练在细小、隔离的分片中。 更容易仅重新训练一个分片。 存储开销高。
梯度擦除 逆转特定数据的优化步骤。 比全面重新训练更快。 可能降低整体准确性。
影响函数 识别哪些神经元“记住”了目标数据。 针对性极强。 对大型模型的计算成本极高。
差分隐私 在训练期间加入数学噪声。 防止数据被学习。 可能使模型变得不那么“聪明”。

为什么这对身份的未来至关重要

取消学习的权利不仅仅关乎隐私,更关乎进化的权利。如果一个 AI 模型根据你五年前的数据永久冻结了你的某个版本,它就剥夺了你从错误中走出来或改变公众形象的能力。在一个 AI 驱动的背景调查和自动化声誉系统正成为常态的世界里,机器无法遗忘的能力将成为数字包袱的终身监禁。

组织和用户的实践步骤

在应对这一转变的过程中,开发者和数据主体都必须采取新策略,在 AI 时代管理数字足迹。

对于开发者和企业:

  • 实施数据版本控制: 准确记录哪些数据集用于哪些模型迭代,以便进行针对性的更新。
  • 采用隐私保护训练: 使用联邦学习或差分隐私等技术,确保个人数据点永远不会成为模型的“承重”部分。
  • 模块化设计: 从单体模型转向“混合专家”架构,使特定的知识组件可以被替换或禁用。

对于个人:

  • 审计你的公开足迹: 使用工具监控你的个人数据出现在公共训练集(如 Common Crawl)中的位置。
  • 行使退出权: 包括 OpenAI 和 Google 在内的许多 AI 提供商现在都提供表格,要求将你的数据排除在未来的训练周期之外。
  • 使用投毒工具: 对于艺术家和创作者,像 Nightshade 或 Glaze 这样的工具可以微妙地改变数字文件,防止 AI 模型准确学习其风格。

前行之路

使生成式系统与人权相协调,需要我们构建技术的方式发生转变。我们不能将 AI 视为一种不可阻挡的自然力量;它是人类设计的工具,必须服从于人的尊严。取消学习的权利是确保虽然机器可能拥有无限记忆,但它们对“我们是谁”没有最终决定权的第一步。

来源

  • European Data Protection Board (EDPB) - Guidelines on the Right to be Forgotten
  • Journal of Artificial Intelligence Research - A Survey of Machine Unlearning
  • NIST AI Risk Management Framework
  • Stanford University - Foundation Models and Privacy Risks
bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户