隐私原则

人工智能界的隐私宠儿刚刚向你索要护照

Anthropic 现在要求部分 Claude 用户提供政府身份证件。探索为什么这家专注于隐私的 AI 领导者转向身份验证,以及这意味着什么。
人工智能界的隐私宠儿刚刚向你索要护照

在过去的一年里,人工智能领域悄然发生了一场迁移。虽然 OpenAI 的 ChatGPT 仍然是家喻户晓的名字,但一大批具有隐私意识的高级用户、开发人员和作家纷纷收拾起数字行囊,转投 Anthropic 的 Claude 阵营。其叙事逻辑很简单:OpenAI 与政府监控利益的关系正变得过于亲密——前美国国家安全局(NSA)局长加入其董事会便是一个缩影——而 Anthropic 则始终是那个坚持原则、安全至上的替代方案。

但科技行业的现实很少是这种非黑即白的。本周,这一叙事遭遇了重大挫折。Anthropic 悄悄更新了其协议,要求部分用户提供政府签发的身份证件和实时自拍,才能继续使用该服务。对于一个为了逃避被监视感而专门加入 Claude 的社区来说,这充满了讽刺意味。它提出了一个关于互联网未来的根本性问题:我们能否在不放弃绝对匿名性的情况下,真正拥有高水平的实用性?

大迁移遭遇数字边境

要理解为什么这一举动对某些人来说感觉像是一种背叛,我们必须审视其之前的氛围。在 2024 年中期及整个 2025 年,OpenAI 面临了一系列关于数据处理及其与联邦机构关系的公关危机。这创造了一个 Anthropic 乐于填补的真空。他们将自己定位为“宪法人工智能”(Constitutional AI)的创造者,这是一种由一套伦理原则而非仅仅是原始数据模式治理的系统。

对于普通用户来说,Claude 感觉像是一个更深思熟虑、更少“企业化”的 AI 未来版本。它就像是一个不知疲倦的实习生,不仅能完成工作,而且似乎很在意规则。然而,AI 繁荣的蜜月期正在结束,监管现实正在降临。Anthropic 的新身份验证并非心血来潮;它是对运营一个日益被用于高风险任务的工具所面临的系统性压力的回应。

虽然这看起来像是一个突然的转向,但从大局来看,这反映了一个正在变化的格局:“信任但验证”正成为任何处理海量算力的公司的强制性操作程序。

幕后机制:验证如何运作

从实际操作层面来看,Anthropic 并没有在内部建立一个庞大的护照数据库。与许多金融科技应用和共享汽车服务一样,他们将繁重的工作外包给了一个名为 Persona 的第三方身份平台。当用户被标记需要验证时,系统会提示他们扫描身份证并拍摄一张“活体”自拍,以证明他们不是机器人或深度伪造(Deepfake)。

在“平台完整性”这些术语背后,像 Anthropic 这样的公司采取这一激进步骤主要有三个原因:

  1. 防止模型滥用: AI 可被用于生成钓鱼邮件、编写恶意软件或协调虚假信息宣传活动。通过将账户与真实身份绑定,被封禁的“代价”会变得更高。
  2. 资源配额: 像 Claude 3.5 Sonnet 或 Opus 这样的高端 AI 模型运行成本极高。恶意行为者经常创建数千个“傀儡”账户来绕过使用限制。护照检查是一种有效(尽管生硬)的阻止手段。
  3. 监管合规: 各国政府正日益针对 AI 公司推行类似于银行业的“了解你的客户”(KYC)法规。他们希望确保强大的技术不会被出口到受制裁地区或被禁止实体使用。

奇怪的是,Anthropic 是第一个将此作为消费者体验中可见部分的头部玩家。虽然谷歌和微软已经掌握了关于你的海量数据,但他们还没有要求你举着驾照才能与他们的机器人聊天。Anthropic 的举动是透明的,但对许多人来说,这也是一种令人不安的侵入。

隐私权衡:对比分析

从消费者的角度来看,在 AI 供应商之间做出选择已不再仅仅关乎谁写的诗更好或代码更精简。它关乎你愿意为这项服务支付什么样的“税”。

功能 Anthropic (Claude) OpenAI (ChatGPT) Google (Gemini)
主要数据来源 用户提供的提示词 用户提供的提示词 集成的谷歌生态系统
身份验证 政府身份证/自拍 (针对部分用户) 电子邮箱/手机号 谷歌账户历史
训练退出选项 专业版/团队版用户可用 设置中可用 设置中可用
第三方共享 使用 Persona 进行身份检查 与安全合作伙伴共享 谷歌内部数据共享

从本质上讲,我们看到了隐私处理方式的分歧。谷歌和微软已经知道你是谁,因为你生活在他们的生态系统中。OpenAI 通过你的手机号和支付方式了解你。而缺乏这些深度历史数据的 Anthropic,则选择了一种更稳健、“更硬”的验证方法。

为什么这对普通用户很重要

对于使用 Claude 总结 PDF 或协助起草邮件的人来说,这可能感觉像是大材小用。换句话说,这就像进入公共图书馆被要求录入指纹一样。然而,“那又怎样”的过滤视角表明,这是一个更广泛趋势的开始。

随着 AI 模型变得越来越能够执行现实世界的行动——如预订机票、转账或访问医疗记录——对“人格证明”(Proof of Personhood)的需求将会增长。如果一个 AI 代理要代表你行事,系统需要 100% 确定发出指令的确实是你本人。

在市场方面,这一举动短期内实际上可能会损害 Anthropic 的增长。用户信任的波动性意味着,即使是像身份检查这样的小摩擦点,也可能让人们跑回竞争对手那里。但从具有韧性的商业角度来看,Anthropic 可能押注于成为“最合规”的公司,从长远来看,这将使他们成为大型企业客户和政府合同的首选。

你的数字生活底线

归根结底,将用户推向 Claude 的“监控恐惧”并没有消失,只是改变了形式。我们已经从担心数据被用来训练大脑,转向担心我们的物理身份与数字查询被绑定在一起。

如果你被提示验证身份,你必须做出选择。Anthropic 声称这些数据不用于训练,并由专门的安全公司处理。对许多人来说,这位“不知疲倦的实习生”的实用性值得这种交换。对另一些人来说,这一要求则触及了底线。

审视大局,我们应该预料到这会成为行业标准。匿名、高能的 AI 助手时代可能即将结束。随着这些工具成为我们经济中的数字原油,守门人会在让我们加油之前先查看身份证。

与其将这视为单一公司的背叛,不如将其视为整个互联网走向的信号。我们正迈向一个“经验证的网络”,你的数字行为将与你的物理自我挂钩。这会让世界变得更安全还是更受限,是我们未来十年将要回答的问题。目前,请准备好你的护照——你的 AI 可能需要它。

来源

  • Anthropic 官方支持文档:Identity Verification FAQ (April 2026).
  • Persona 身份验证平台:Security and Compliance Standards Report.
  • 行业分析:The Impact of KYC in Generative AI Markets (TechTrends Quarterly).
  • 隐私对比研究:Data Retention Policies of Major LLM Providers.
bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户