人工智能

为什么 OpenAI 通过放弃最初的终点线赢得了 AI 竞赛

OpenAI 2026 年的原则将重点从 AGI 转向广泛的集成和军事交易。以下是这对您的 AI 工具未来的意义。
为什么 OpenAI 通过放弃最初的终点线赢得了 AI 竞赛

近十年来,科技界一直运行在一个单一的、几乎带有宗教色彩的假设之下:OpenAI 的存在是为了诞生一个数字神明。这个被称为通用人工智能(AGI)的假设实体,本应是最终的终点线——即机器在各方面都超越人类认知能力的时刻。叙事很简单:OpenAI 将构建它,确保它不会意外地毁灭我们,然后,据推测,世界将永远改变。

从大局来看,这种叙事已经正式破裂。周日,OpenAI 发布了其核心运营原则的更新,这标志着这家地球上最具影响力的 AI 公司如何看待自身未来发生了系统性转变。该公司不再单一关注改变世界的超级智能,而是转向成为一个强大的、基础性的公用事业提供商。它不再试图建立终点线;它正试图拥有赛道、体育场和转播权。

挑战对 AGI 的痴迷

虽然在公司的营销中,AGI 似乎仍是一个遥远的目标,但这些新原则的现实要务实得多。2018 年,OpenAI 的使命几乎是修道院式的。它是一个研究优先的机构,坚定不移地专注于安全 AGI 的开发。2018 年的文件明确提到了对人类的受托责任以及尽量减少利益冲突的承诺。

快进到 2026 年 4 月,基调已从哲学转向工业。在 AI 民主化的术语背后,OpenAI 实际上承认了单一 AGI 事件的概念是一种干扰。萨姆·奥特曼(Sam Altman)最近将 AGI 描述为拥有某种“权力之戒”,会让人们做出疯狂的事情。为了应对这种情况,OpenAI 不再等待神奇的突破。相反,他们现在正将 AI 整合到世界的“管道系统”中。

从实际角度来看,这意味着 OpenAI 已从一个富有远见的实验室转变为一个新兴的基础设施巨头。他们不仅仅是在寻找机器中的灵魂;他们是在寻找运行政府、医院和电网的机器。通过淡化 AGI 终点线,他们扫清了道路,可以像任何其他大型科技集团一样行事,将规模和整合置于其原始研究目标的纯洁性之上。

“让位条款”的消亡

2026 年文件中最显著的变化之一是缺失的内容。在早期,OpenAI 有一项非常利他的政策:如果另一个价值观一致、具有安全意识的项目接近实现 AGI,OpenAI 将停止自身开发并转而帮助他们。这是最终的安全网,是一个承诺,即智能竞赛不会变成一场冲向悬崖边缘的鲁莽冲刺。

该条款已经消失。取而代之的是承认 OpenAI 现在是世界上一个更强大的力量。从历史上看,这是颠覆性公司的一个经典转折点。作为一家初创公司,你可以负担得起做一个合作研究者的代价;而作为一个价值 8000 亿美元的实体,你有利益相关者、巨大的基础设施成本,以及与 Anthropic 等同行的竞争对手关系,这使得“让位”在财务上变得不可能。

这一转变表明 OpenAI 已从协作模式转变为竞争模式。该公司现在认为自己庞大到无法停止。他们不再为了安全而让步,而是加倍强调只有他们才有能力管理风险。从本质上看,这与其说是一种安全预防措施,不如说是在技术真正去中心化之前巩固影响力的举措。

从研究实验室到国防承包商

要理解这些转变原则的实际影响,我们必须看看它们在现实世界中是如何应用的。今年早些时候,顶级 AI 实验室与联邦政府之间出现了重大裂痕。当 Anthropic 拒绝授予特朗普政府不受限制地访问其 Claude 模型以用于军事用途时,该公司立即被贴上了供应链风险的标签。

相反,OpenAI 在他人看到伦理困境的地方看到了机会。通过在 2 月下旬与战争部签署一项巨额协议,OpenAI 巩固了其作为现代治国方略中“数字原油”的地位。这在 2018 年的原则下是不可想象的,因为当时的原则旨在避免权力集中。然而,在 2026 年,OpenAI 将此视为确保将具有网络弹性的模型整合到关键基础设施中的必要步骤。

在市场方面,这是一种高明的战术手段。虽然一些用户为了支持 Claude 而抵制 ChatGPT,但政府合同的巨大规模为 OpenAI 提供了任何面向消费者的聊天机器人都不可能具备的财务稳定性和系统整合水平。他们实际上正在让自己成为国家利益的基础部分。如果政府依靠你的模型来防御病原体或保护电网,你就不再只是一家科技公司,你是一个公共事业机构。

普遍繁荣的经济学

OpenAI 的新原则还包括对新经济模式的一种有些模糊的呼吁。他们要求政府重新思考随着 AI 降低劳动力成本并增加对基础设施的需求,财富应如何分配。乍一看,这听起来像是一个后稀缺世界的慷慨愿景。然而,分析型翻译者可能会有不同的看法。

OpenAI 目前在算力和数据中心上投入了前所未有的资金,远远超过了其目前的收入。他们将其描述为对普遍繁荣未来的基本信念,但这也是一场巨大的财务赌博。通过呼吁新的经济模式和政府资助的基础设施,OpenAI 实际上是在为其自身的扩张寻求纳税人支持的安全网。

在日常生活中,这转化成一个未来:AI 的成本可能隐藏在我们的税收或公用事业账单中,而不是每月 20 美元的订阅费。他们正在推动一个 AI 像电力一样无处不在且无形的世界。虽然这可能导致广泛的繁荣,但它也将透明的高额控制权交到了提供底层技术的公司手中。

这对您意味着什么

对于普通用户来说,OpenAI 章程中的这些变化可能感觉像是遥远的企业变动,但其影响将比你想象的更早显现。

  • 工具可靠性 vs. 创新: 预计 ChatGPT 及其继任者将变得更加可预测并整合到您的工作生活中,但可能减少实验性。OpenAI 正专注于成为企业和政府的精简工具,而不是科幻幻想的游乐场。
  • 隐私与主权: 随着 OpenAI 与政府机构的联系日益紧密,私有技术与国家基础设施之间的界限变得模糊。用户应该比以往任何时候都更加注意输入这些系统的数据,因为现在的安全原则包含了国家安全利益。
  • 成本与获取: OpenAI 对去中心化的推动听起来不错,但他们对大规模基础设施的依赖表明,运行高级 AI 的权力仍将掌握在那些负担得起电力和芯片的人手中。

最终,OpenAI 已经将其作为谨慎观察者的角色转变为积极的建筑师。他们不再等待 AGI 的出现;他们正在建设他们希望 AGI 居住的世界。对我们来说,挑战在于停止寻找超级智能机器的盛大到来,并开始关注这个不知疲倦的实习生已经在重写我们的经济、国防和日常数字习惯规则的方式。

放大来看,最重要的启示是 AI 革命已经走出实验室,进入了游说厅。重点已从机器是否能思考转向机器能管理我们生活的多少部分。OpenAI 不再试图达到人类智能的终点线——他们正忙于建设从他们目前所处位置开始的新世界。

来源:

  • OpenAI 官方文档:"Our Principles" (2018 and 2026 versions)
  • Sam Altman’s Personal Blog: "The Ring of Power" (April 2026)
  • Market Reports: AI Lab Valuations and Series G Funding Data (April 2026)
  • Department of War Press Release: Strategic Partnership for Cyber-Resilience (February 2026)
  • Anthropic Public Statement: Response to Federal Supply Chain Directives (March 2026)
bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户