行业新闻

万亿级 AI 赛道迎来现实考验:餐盘大小的芯片横空出世

Cerebras Systems 提交 IPO 申请,凭借其巨型 AI 芯片挑战英伟达。了解这对 AI 速度的未来以及您的数字工具意味着什么。
万亿级 AI 赛道迎来现实考验:餐盘大小的芯片横空出世

每当你要求人工智能写一封电子邮件、生成一张穿燕尾服的猫的超现实图像或总结一次冗长的会议时,连锁反应便开始了。这一数字请求通过数英里的光缆传输到大型数据中心,并在那里由专门的硅芯片进行处理。多年来,首选的硅芯片几乎完全由英伟达(Nvidia)生产。然而,从你的屏幕回到工厂车间的路径即将变得更加有趣。Cerebras Systems,一家制造餐盘大小芯片的初创公司,已正式提交首次公开募股(IPO)申请,标志着驱动现代世界的“数字原油”市场将发生重大转变。

从大局来看,这不仅仅是又一家试图利用趋势套现的科技公司。Cerebras 正在尝试解决计算领域一个根本性的物理问题。大多数电脑芯片都很小,大约只有指甲盖那么大,是从被称为晶圆的大型圆形硅片上切割下来的。Cerebras 则反其道而行之:他们将整个晶圆作为一个单一的、巨大的处理器。这种设计上的根本性转变正是首席执行官安德鲁·费尔德曼(Andrew Feldman)声称他们拥有地球上最快硬件的原因。对于普通用户来说,这似乎只是技术琐事,但它代表了对行业四十年传统的彻底背离。

攀登硅山

要理解这为何重要,我们必须深入了解 AI 实际是如何构建的。想象一下,你正试图移动一大堆沙子。你可以使用一千个拿着手铲(传统芯片)的人,也可以使用一台巨型挖掘机。英伟达的方法涉及使用昂贵的高速电缆将数千个小芯片连接在一起。相反,Cerebras 将所有内容都保留在一块硅片上。由于数据不必通过电缆从一个芯片传输到另一个芯片,它的移动速度是传统架构难以企及的。

在日常生活中,这种速度转化为 AI “思考”的快慢。在行业内,这分为两类:训练和推理。训练相当于 AI 上大学学习互联网上的一切;推理则是 AI 毕业后实际回答你的问题。Cerebras 最近声称它已经从英伟达手中夺走了 ChatGPT 创造者 OpenAI 的“推理”业务,从而引起了轰动。从实际操作层面来看,如果一个 AI 模型因为在 Cerebras 芯片上运行而响应速度提高十倍,那么提供该服务的成本就会下降,用户体验也会变得无缝而不再卡顿。

财务状况与 G42 因素

在市场方面,这次 IPO 背后的数字既令人印象深刻,又像是一个局部天气系统。Cerebras 报告 2025 年收入为 5.1 亿美元,净利润为 2.378 亿美元。虽然从账面上看是有利可图的,但某些一次性项目掩盖了 7570 万美元的非公认会计原则(non-GAAP)净亏损。对于一家在近期融资后估值约为 230 亿美元的公司来说,这些数字表明投资者在很大程度上是在押注未来的增长,而非目前的收益。

在风险投资和 H 轮融资的术语背后,隐藏着一个复杂的地理政治故事。Cerebras 进入公开市场的道路此前因联邦政府对其与总部位于阿布扎比的 AI 公司 G42 关系的审查而停滞。由于高端 AI 芯片现在被视为国家安全问题——即前文提到的数字原油——美国政府密切关注着谁拥有这项技术以及它被运往何处。Cerebras 现在推进 IPO 的事实表明,这些监管障碍已经清除或至少得到了处理,为其 5 月中旬在证券交易所的首次亮相铺平了道路。

Cerebras 与竞争对手的比较

谈论 Cerebras 就不可能不提到房间里的巨人:英伟达。虽然英伟达拥有开发者已经使用了十年的强大软件生态系统,但 Cerebras 押注的是纯粹的原始性能。换句话说,英伟达是每个人都知道如何驾驶的可靠家庭轿车,而 Cerebras 则是专为特定目的设计的定制赛车:以物理极限速度移动 AI 数据。

特性 传统 AI GPU (Nvidia B200) Cerebras 晶圆级引擎 (WSE-3)
尺寸 小 (约 1 英寸) 巨大 (8.5 x 8.5 英寸)
核心数 数千个 900,000 个 AI 优化核心
内存 板载 (HBM3) 晶圆集成 (44GB SRAM)
供电方式 标准机架 专用液冷机箱
主要目标 通用 AI/HPC 超快速训练与推理

从本质上讲,这意味着 Cerebras 并不是要取代你背包里的笔记本电脑。它的目标是数字时代的重工业——驱动全球经济的大型服务器集群。他们最近与亚马逊网络服务(AWS)达成协议,将 Cerebras 芯片放入亚马逊的数据中心,这是一个切实的信号,表明全球最大的云供应商正在寻找英伟达垄断地位的替代方案。

这对你意味着什么

对于处于这条漫长供应链末端的消费者来说,Cerebras 的 IPO 是一个信号,表明 AI 热潮正在进入“工业化”阶段。从历史上看,当一个市场只有一个主要供应商时,价格会保持高位,创新可能会停滞。像 Cerebras 这样有韧性的竞争对手的出现,暗示了普通用户的三个实际转变:

  1. 降低订阅成本: 如果 OpenAI 或谷歌等公司运行模型的成本显著降低,那么提高“Pro”级 AI 订阅费的压力可能会减小。
  2. 实时交互: 我们在使用语音助手或 AI 聊天机器人时体验到的大部分延迟,都是由于数据在数千个小芯片之间跳跃所需的时间造成的。晶圆级计算可以使 AI 交互感觉像人类对话一样即时。
  3. 局部创新: 随着更多专业硬件通过云端(如 AWS 交易)变得可用,小型初创公司将能够负担得起构建医疗、法律或教育领域利基 AI 工具所需的计算能力,而不仅仅是大型科技公司。

有趣的是,Cerebras 的成功也凸显了硬件市场的波动性。制造这么大的芯片极其困难;如果在制造过程中哪怕有一粒微小的灰尘或微观缺陷,整个圆盘都可能报废。Cerebras 已经开发出一种精简的方法来绕过这些缺陷,但技术风险仍然是前所未有的。

总结

放大来看,Cerebras 的 IPO 是整个科技行业的晴雨表。它告诉我们,市场对能够突破硅片极限的硬件仍有巨大的胃口。它也提醒我们,我们数字生活不可见的骨架是由非常真实的、非常昂贵的沙子和金属片构成的。随着我们向 5 月中旬的发行迈进,市场将决定 Cerebras 是一个能够带来系统性变革的颠覆性力量,还是英伟达统治世界中的一个利基玩家。

最终,对于敏锐的观察者来说,重点不在于股价或 900,000 个核心的技术规格。而在于意识到,我们每天使用的 AI 质量取决于我们为运行它而建造的引擎。随着这些引擎变得更大、更快,我们与技术的关系将从我们使用的东西转变为实时与我们协作的东西。无论你是否亲眼见过 Cerebras 芯片,下次当你请求 AI 帮助解决问题,而它在你还没打完字就给出答案时,你可能会感受到它的影响。

资料来源

  • Cerebras Systems Form S-1 Initial Public Offering Filing (2026)
  • Wall Street Journal: Interview with Andrew Feldman on OpenAI and Nvidia competition
  • SEC Filings regarding G42 investment and federal regulatory reviews
  • AWS Official Blog: Expansion of AI Hardware Offerings in Data Centers
  • Industry Analysis: The Economics of Wafer-Scale Integration in AI Training
bg
bg
bg

另一边见

我们的端到端加密电子邮件和云存储解决方案提供了最强大的安全通信手段,确保您的数据安全和隐私。

/ 创建免费账户