多年来,硅谷的 AI 先驱与美国国防部 (DoD) 之间的关系一直是一场相互需要的微妙舞蹈。但截至 2026 年 2 月,这场舞蹈已演变成一场公开的、关乎存亡的争斗。冲突的核心是 Anthropic——这家专注于安全、目前估值高达 3800 亿美元的初创公司,以及五角大楼在其最新采购合同中要求的一项看似简单的三字条款:“任何合法用途” (any lawful use)。
虽然这个短语听起来像是标准的法律模板,但它代表了人工智能在现代战争中部署方式的根本转变。对于 Anthropic 而言,同意这些条款意味着拆解定义其品牌的“宪法 AI” (Constitutional AI) 框架。而对于五角大楼来说,这是一个国家安全问题,旨在确保美国 AI 在全球军备竞赛中不会因私营部门的伦理限制而束手束脚。
“任何合法用途”条款是国防部 AI 整合的新金标准。从本质上讲,它要求 AI 提供商放弃其特定的“可接受使用”政策——即通常禁止将 AI 用于暴力、监视或武器开发的规则——只要军方的应用在国际法和国内法下被视为合法即可。
报告显示,OpenAI 和埃隆·马斯克的 xAI 已经悄悄更新了其服务条款以适应这一要求。通过这样做,他们为自己的模型整合进“杀伤链” (kill chain)——即识别、跟踪和打击目标的过程——扫清了障碍。然而,Anthropic 仍然是“三大”基础模型提供商中唯一的坚持者,导致了一场持续数周、通过泄露备忘录和尖锐的社交媒体交锋展开的博弈。
要理解 Anthropic 为何坚持立场,必须审视其模型的构建方式。与其他主要通过人类反馈进行微调的语言模型 (LLM) 不同,Anthropic 的 Claude 模型受“宪法”约束——这是一套由 AI 用来监督自身行为的成文原则。
如果五角大楼将 Claude 整合到专为大规模监视或更具争议的致命自主武器系统 (LAWS) 设计的系统中,该 AI 将面临逻辑悖论。其核心程序禁止其协助伤害或侵犯人权,但其操作指令却恰恰要求这样做。
“我们谈论的不不仅仅是政策变动,”一位不愿具名的 Anthropic 工程师在最近的一个论坛上指出,“我们谈论的是对使我们的模型成其为模型的安全架构进行‘额叶切除’。你不可能拥有一个既‘安全’又被授权自主决定消灭目标的 AI。”
最显著的摩擦点涉及可以在没有人类“介入” (in the loop) 的情况下跟踪并杀伤目标的 AI。虽然五角大楼官方坚称人类将始终做出使用致命武力的最终决定,但“任何合法用途”条款为速度成为主要武器的未来提供了法律掩护。例如,在无人机群场景中,人类操作员可能反应太慢而无法授权单个打击指令,从而不得不让 AI 来管理交战。
Anthropic 的领导层认为,当前的 AI 模型缺乏在现实战场混乱中区分战斗员和平民的“常识”和情境感知能力。通过拒绝五角大楼的条款,Anthropic 实际上是在押注市场——以及公众——最终会认为安全性比纯粹的军事效用更有价值。
这场对峙发生在 Anthropic 的关键时刻。凭借 3800 亿美元的估值,产生巨额收入的压力巨大。政府合同是 AI 领域最大的未开发金矿。通过坚持立场,Anthropic 面临被排除在联合作战云能力 (JWCC) 和其他数十亿美元项目之外的风险,可能将整个国防市场拱手让给 OpenAI 和 xAI。
Anthropic 立场的批评者认为,如果最“讲伦理”的 AI 公司拒绝与军方合作,五角大楼将转而依赖对齐程度较低的模型,从而导致更危险的结果。然而,支持者认为 Anthropic 是防止自动化战争陷入“黑镜”式升级的最后防线。
这次谈判是整个软件行业的风向标。它标志着 AI “快速行动,打破常规”时代的终结,以及科技公司必须决定自己是中立工具还是道德主体的时代的开始。
| 功能 | Anthropic 立场 | OpenAI/xAI 立场 |
|---|---|---|
| “任何合法用途” | 拒绝(目前) | 接受 |
| 致命自主权 | 严格禁止 | 在国防部监管下允许 |
| 安全机制 | 宪法 AI(硬编码) | RLHF 与基于政策的机制 |
| 主要目标 | 对齐与安全 | 快速扩展与效用 |
随着这场博弈的继续,企业和开发者应考虑以下几点:
Anthropic 与五角大楼之间的谈判不仅仅关乎一份合同;它们是对人工智能灵魂的全民公投。随着我们步入 2026 年,业界将拭目以待 Anthropic 是否能在不牺牲财务未来的情况下守住道德高地。目前,那三个字——“任何合法用途”——仍然是硅谷历史上最昂贵的词汇。



