这一举动在硅谷和华盛顿特区引发了剧震,由科技巨头和前军事指挥官组成的强大联盟已挺身而出,支持Anthropic在与美国政府的高风险法律斗争中。争议焦点在于战争部(DOW)的一项有争议的认定,即将这家AI安全研究公司标记为“供应链风险”,批评人士认为此举可能会扼杀创新并损害国家安全。
Anthropic于上周发起的法律挑战,旨在推翻现任政府发布的一项指令。这一认定实际上将该公司列入了联邦合同的黑名单,并阻止其他私营实体集成Anthropic的技术,如果他们希望维持自己在政府中的地位。对于一家建立在“宪法AI”(Constitutional AI)基础上的公司来说,被贴上国家威胁标签的讽刺意味并未被行业观察者忽视。
在联邦采购领域,被标记为供应链风险通常被描述为企业的“死刑判决”。这通常是针对涉嫌间谍活动的外国实体或组件受损的硬件制造商的工具。通过将这一标签应用于像Anthropic这样的国内AI开发商,战争部已进入了未知的法律领域。
该认定允许战争部禁止Anthropic竞标任何国防相关项目。更重要的是,它在整个私营部门产生了“寒蝉效应”。如果一家主要的云服务提供商或物流公司使用Anthropic的Claude模型来驱动其内部系统,他们将面临失去政府认证的风险。这实际上迫使行业在尖端AI工具与其最有利可图的政府合同之间做出选择。
此案中最重要的进展也许是来自微软的公开支持。尽管微软通过与OpenAI的合作在AI领域是主要竞争对手,但微软提交了一份法律简报,敦促法院取消这一认定。这家科技巨头的兴趣不仅仅是出于利他主义;这是为了保护更广泛的技术生态系统。
微软的法律文件辩称,战争部的行为迫使承包商遵守“模糊且定义不明的指示”,而这些指示此前从未公开用于针对国内公司。该公司警告称,该认定可能会带来“不符合公共利益的严重经济影响”。通过支持Anthropic,微软发出信号:政府任意干预的先例对行业的威胁比任何单一竞争对手都要大。
担心的不仅仅是科技高管。一群退役军事领袖和AI智库也加入了这场争论。他们的论点植根于“创新是国家安全之必然”这一概念。这些领导人认为,通过疏远国内AI先驱,政府在无意中将优势拱手让给了全球对手。
“21世纪的国家安全不仅仅关乎硬件;它关乎我们软件生态系统的灵活性,”一位退役将军在支持声明中指出。“如果我们创造一个环境,让我们最具创新性的公司在未经正当程序的情况下被视为对手,我们将发现自己依赖于劣质技术,而世界其他地方则在不断进步。”
这些专家认为,战争部未能提供明确的路线图说明公司如何“治愈”其风险状态,使Anthropic陷入法律僵局,阻碍了长期规划和投资。
诉讼的核心是声称战争部越权。Anthropic的法律团队辩称,用于确定“供应链风险”的标准是不透明且应用不一致的。与传统的安全审查不同(传统的安全审查有明确的上诉和补救流程),目前的认定似乎是一个单方面的决定,没有明确的解决路径。
微软的简报呼应了这一观点,强调政府尚未提供Anthropic代码存在安全漏洞或受损的具体证据。相反,这一认定似乎源于对大型语言模型“不可预测性”的更广泛、更模糊的担忧——这种担忧理论上可以应用于任何AI公司。
此案不仅仅关乎一家公司向政府销售软件的能力。它是对美国如何在国家安全担忧与培育繁荣的国内科技部门需求之间取得平衡的一次试金石。如果法院维持战争部的认定,它可能会创下一个先例,即任何公司的市场准入都取决于行政部门不断变化的政治风向。
对于其他AI初创公司来说,信息很明确:技术卓越已不再足够。在生成式AI时代,应对复杂的联邦合规网络和地缘政治定位已成为生存的核心要求。
随着这场法律战的展开,在AI和国防领域运营的公司应考虑采取以下步骤来减轻自身风险:


