就在一周多以前,山姆·奥特曼(Sam Altman)还处于巅峰。OpenAI 刚刚与美国国防部建立了具有里程碑意义的合作伙伴关系,这项协议承诺将 GPT 级智能整合到国家安全行动的核心。这被描绘成一场爱国主义的胜利——硅谷最著名的实验室挺身而出,确保美国的技术霸权。
但胜利的喜悦是短暂的。今天,叙事已从战略胜利转向了艰苦的危机公关。这是 OpenAI 历史上第一次面临无法通过更高效的算法或更大的 GPU 集群解决的危机。这是一场关于舆论、伦理和消费者信任的战斗,赌注比以往任何时候都高。
目前的动荡可以追溯到一场针对五角大楼巨额合同的高风险竞标战,该合同旨在实现军事物流和决策支持系统的现代化。虽然有几家 AI 实验室参与了竞争,但竞争最终缩小到两个巨头之间:OpenAI 和 Anthropic。
令许多行业内部人士感到意外的是,以“AI 安全”和“宪法 AI”为原则创立的公司 Anthropic 选择了退出。由于担心其模型可能被用于动能行动或绕过伦理护栏,Anthropic 拒绝签署政府条款。
OpenAI 在奥特曼的领导下走上了不同的道路。他们与五角大楼合作制定了一套特定的用例,认为美国军方使用“对齐”的模型总比落后于全球对手要好。然而,这种论点的细微差别很快就在公众舆论中消失了。对于普通用户来说,观感很简单:Anthropic 选择了原则;OpenAI 选择了合同。
与以往涉及数据隐私或董事会内斗的争议不同,这次“五角大楼转向”引发了消费市场的切实转变。在过去的七天里,社交媒体平台上充斥着用户取消 ChatGPT Plus 订阅的截图。
来自第三方应用追踪器的数据显示,Anthropic 的旗舰聊天机器人 Claude 的下载量大幅飙升,而 OpenAI 的留存率则相应下降。这不仅仅是互联网上少数人的抱怨;这是“专业消费者”阶层的迁移——那些一直是 OpenAI 增长支柱的开发人员、作家和研究人员。
对于这些用户来说,担忧不一定是 ChatGPT 正在变成一种武器。相反,他们担心 OpenAI 的优先级已从构建“服务于每个人的 AI”转向构建“服务于国家的 AI”。这种感知到的独立性丧失,对一个曾经将自己定位为人类非营利性保障的品牌来说是一个打击。
山姆·奥特曼是“产品转型”的大师。当 GPT-4 被批评太“懒惰”时,团队推送了更新以提高响应速度。当出现隐私担忧时,他们推出了企业模式和无痕浏览。但你无法“修补”一份政府合同。
这是一个结构性挑战。五角大楼的交易伴随着长期承诺和监管,这使得 OpenAI 不可能在不产生巨大法律和声誉影响的情况下简单退出。奥特曼现在处于一个尴尬的境地,必须向感到日益疏远的公众证明公司的道德准则。
“OpenAI 面临的挑战不是代码,而是机构的性质,”一位行业分析师表示,“你无法通过 A/B 测试来摆脱伦理分歧。”
要理解奥特曼为何接受这笔交易,必须审视更广泛的地缘政治格局。到 2026 年,AI 不再仅仅是一个生产力工具;它是国家权力的主要引擎。美国政府迫切希望确保领先的 AI 模型是在支持国内利益的框架内开发的。
通过与五角大楼合作,OpenAI 实际上已经成为了一个“国家冠军”。这赋予了他们巨大的政治资本和极少数公司能比拟的资源。然而,这也使他们成为了目标。对手将该公司视为美国政府的延伸,而国内批评者则担心这种本应是全球公用事业的技术会被军事化。
如果你是这些工具的常规用户或基于其 API 构建应用的开发者,当前的动荡为应对不断变化的 AI 格局提供了几点重要启示:
山姆·奥特曼目前正在进行“倾听之旅”,会见开发者和关键利益相关者,解释公司的愿景。他将五角大楼的交易描述为安全的必要步骤——辩称通过“在现场”,OpenAI 可以影响军方如何负责任地使用 AI。
公众是否买账还有待观察。目前,“聊天机器人大战”已进入一个全新的、更复杂的阶段。这不再仅仅关乎谁拥有最聪明的模型;而关乎你信任谁掌握着通往该智能的钥匙。OpenAI 可能赢得了合同,但他们目前正在输掉这场争取建立他们的民众的心。
资料来源:



