在令硅谷和华盛顿特区感到震惊的旋风般的 120 分钟内,联邦政府与人工智能行业的关系达到了历史性的转折点。继唐纳德·特朗普总统在 Truth Social 上宣布在联邦政府内全面禁用 Anthropic 产品的中午公告后,国防部长皮特·海格塞斯(Pete Hegseth)进一步升级了局势。到下午三点左右,美国国防部(DoD)正式将 Anthropic 列为“供应链风险”。
这一举动标志着与以往政府对国内 AI 公司立场的彻底背离。虽然政府历来将此类认定保留给外国实体——最著名的是中国电信巨头——但将这一标签贴在一家拥有数十亿美元美国风险投资背景的旧金山公司身上,预示着监管波动的新时代。Anthropic 已经表示有意对抗这一认定,为一场关于美国 AI 版图未来的高风险法律战拉开了序幕。
要理解海格塞斯部长公告的严重性,必须透过政治辞令,深入了解联邦采购机制。当国防部将一家公司指定为供应链风险时,这不仅仅是一个避免使用其软件的建议;它实际上是一种功能性的黑名单。
根据《联邦收购供应链安全法》(FASCSA),此类认定允许政府发布排除或移除命令。这意味着,不仅联邦政府被禁止购买 Anthropic 的“Claude”模型,任何第三方承包商——从洛克希德·马丁等国防巨头到小型 IT 顾问公司——如果希望维持其政府合同,都可能被迫从其系统中清除 Anthropic 的集成。
在实际操作中,这会产生“隔离”效应。如果 Anthropic 被视为对联邦供应链完整性的风险,那么流经其模型的任何数据都被视为可能受到损害或受到未经授权的影响。
这场冲突的核心在于 Anthropic 的核心身份。Anthropic 由前 OpenAI 高管创立,一直将自己定位为“安全第一”的 AI 公司。他们专有的训练方法被称为宪法 AI(Constitutional AI),涉及在生成响应时为模型提供一套书面原则(即“宪法”)来遵循。
虽然科技界在很大程度上称赞这是防止 AI 变得有害或产生偏见的一种方式,但现任政府似乎从不同的角度看待这些安全护栏。政府内部的批评者将这些过滤器定性为一种“算法审查”或“意识形态偏见”,可能会干扰军事和情报应用所需的客观、原始数据处理。
通过将该公司贴上供应链风险的标签,国防部暗示 Anthropic 用来确保“有用性、诚实性和无害性”的安全措施,在战斗或战略背景下,可能构成漏洞或拒绝执行合法命令。
Anthropic 并非孤立存在。该公司已深度融入全球最大云服务提供商的基础设施中。亚马逊(AWS)和谷歌都向 Anthropic 投资了数十亿美元,并在各自的平台(Bedrock 和 Vertex AI)上托管 Claude。
这一认定使这些云巨头处于尴尬境地。如果国防部坚持认为 Anthropic 是供应链风险,那么这种风险是否会延伸到托管它们的平台?
| 利益相关者 | 潜在影响 |
|---|---|
| 联邦机构 | 立即从基于 Claude 的工作流迁移到 OpenAI 或 xAI 等替代方案。 |
| 国防承包商 | 对软件栈进行强制审计,以识别并移除 Anthropic API 调用。 |
| 云服务提供商 | 在 GovCloud 环境中隔离或限制 Anthropic 服务的潜在压力。 |
| 企业用户 | AI 市场长期监管稳定性的不确定性增加。 |
Anthropic 的回应非常迅速。在简短的声明中,该公司表示“失望和不同意”,并断言其技术是在美国本土由美国公民开发的,且首要关注国家安全和可靠性。
法律专家建议,Anthropic 的挑战可能会集中在《行政程序法》(APA)的“任意和反复无常”标准上。为了维持供应链风险认定,国防部通常必须提供可信威胁的证据。由于 Anthropic 是一家与外国对手没有已知联系的国内公司,政府可能会被迫透露禁令的机密理由,否则将面临被联邦法官撤销命令的风险。
对于首席技术官(CTO)和 IT 决策者来说,这次升级是对 AI 时代“供应商锁定”风险的一次警钟。一家主要参与者从“行业领导者”突然转变为“供应链风险”,凸显了多元化 AI 战略的必要性。
随着法律战的开始,科技界不禁要问:如果一家建立在安全原则之上的公司都能被贴上风险标签,那么在新的监管环境下,谁才是真正的安全?



