硅谷领先的 AI 实验室与美国政府之间的关系已达到临界点。周一,Anthropic 对美国国防部(DOD)提起正式法律诉讼,挑战最近将其列为“供应链风险”的认定。此举发生在一周的紧张局势升级之后,可能会重新定义人工智能如何融入国家安全。
这场诉讼的核心是关于控制权的根本分歧。五角大楼的这一认定实际上将 Anthropic 的 Claude 模型列入了国防相关合同的黑名单,迫使军方的数字基础设施发生大规模转移。对于一家长期将自己定位为 AI 竞赛中“安全第一”替代方案的公司来说,安全风险的标签既是声誉上的打击,也是财务上的威胁。
摩擦并非一夜之间产生。根据法律文件,冲突源于一系列关于军方使用 Claude 的闭门谈判。据报道,美国国防部要求“无限制访问”Anthropic 的核心系统——这一请求将允许军事人员绕过 AI 中内置的标准安全过滤器和宪法护栏。
Anthropic 拒绝了这一要求,理由是担心此类访问会损害其安全协议的完整性,并可能导致其技术以违反公司章程的方式被武器化。五角大楼的回应是援引供应链风险管理权限,这一举措通常保留给外资公司或被证明与敌对情报机构有联系的实体。
为这场法律战增加政治分量的是,唐纳德·特朗普总统已发布指令,要求联邦机构停止使用 Claude。然而,政府也承认立即撤出的难度。五角大楼获得了六个月的窗口期来逐步淘汰 Anthropic 的技术,这反映了 Claude 在机密系统中的嵌入程度之深。
考虑到 AI 持续参与活跃的军事行动(包括与伊朗冲突相关的行动),这一过渡期尤为敏感。在这些战场上,AI 被用于从物流优化到实时数据分析的方方面面。在冲突期间更换基础模型是一场物流噩梦,一些国防分析人士警告称,这可能会在短期内造成美国情报能力的漏洞。
在国防采购领域,被贴上供应链风险的标签是终极“红牌”。它不仅阻止国防部购买该软件,还防止任何第三方承包商在最终产品交付给五角大楼的情况下使用该软件。
对于 Anthropic 而言,这意味着突然失去进入由国防承包商和航空航天公司组成的价值数十亿美元生态系统的机会。法律挑战辩称,国防部的认定是“任意且反复无常的”,声称该部门未能提供实际安全漏洞的证据,而是将该标签作为对 Anthropic 拒绝授予系统完全控制权的惩罚性措施。
这场诉讼是 AI 行业的一个分水岭。多年来,OpenAI、Google 和 Anthropic 等公司一直在服务公众与支持国家利益之间维持微妙的平衡。五角大楼的激进立场表明,“自愿合作”的时代可能即将结束,取而代之的是对完全透明和控制的强制要求。
如果国防部获胜,它将开创一个先例:AI 公司必须在维持其专有安全标准或维持其获得政府合同的资格之间做出选择。其他科技巨头正在密切关注,因为此案的结果可能会决定联邦政府与私营科技部门未来合作伙伴关系的条款。
随着这场法律战的展开,在国防和 AI 领域运营的公司应为更加动荡的监管环境做好准备。以下是即时考虑因素:
鉴于国家安全的影响,预计 Anthropic PBC 诉国防部 案将在法院快速推进。Anthropic 正在寻求立即禁令,以便在辩论案件实质内容期间暂停供应链风险认定。
法院是将此视为公司权利问题还是国家安全必要性问题,仍有待观察。可以肯定的是,五角大楼与 AI 行业之间的“特殊关系”已被永远改变。



