Cerebras Systems这家美国AI芯片初创公司,刚刚从OpenAI手中拿到了一份足以改写行业格局的合同——未来三年价值超过200亿美元的芯片采购协议,并计划下月以约350亿美元的估值在纳斯达克上市。这是AI芯片行业今年以来规模最大的商业合作与资本事件之一,也是OpenAI加速“去英伟达化”战略的关键落子。

本文将从协议细节、交易结构、技术路线、IPO进程以及行业竞争格局五个维度,还原这一事件的来龙去脉,并分析其对AI芯片行业的长远影响。
事件概述:200亿美元订单背后的深层逻辑
2026年4月16日,据The Information援引知情人士报道,OpenAI已与Cerebras Systems达成协议,承诺在未来三年内向后者支付超过200亿美元,用于租用由Cerebras晶圆级引擎(WSE)芯片驱动的服务器。4月17日,多家权威媒体跟进确认了这一消息,交易规模是今年1月双方100亿美元协议的整整两倍。
与此同时,OpenAI还同意向Cerebras提供约10亿美元的资金,用于资助其开发运行AI产品的数据中心系统。作为交换,OpenAI将获得Cerebras的认股权证,持股比例随支出增加而提升——若三年内总支出达到300亿美元,OpenAI最多可获得约10%的股权。
值得注意的是,OpenAI CEO Sam Altman本人就是Cerebras的早期投资者。Cerebras的投资者名单中还包括OpenAI联合创始人Greg Brockman、前首席科学家Ilya Sutskever等知名个人投资者。这种深度绑定关系,使得本次合作带有明显的“生态联盟”色彩。
| 对比维度 | 2026年1月协议 | 2026年4月协议 |
|---|---|---|
| 协议金额 | 超过100亿美元 | 超过200亿美元 |
| 协议期限 | 三年 | 三年 |
| 算力规模 | 750兆瓦 | 未单独披露(规模为1月两倍) |
| 数据中心融资 | 未明确 | 约10亿美元 |
| 股权条款 | 无 | 最高可达10%认股权证 |
| 部署进度 | 2026—2028年分阶段 | 延续原部署计划 |
交易结构的独特设计:不只是采购合同
此次OpenAI与Cerebras的协议,核心创新在于其独特的财务结构设计。The Information将整笔协议定性为“营运资金存款”(Working Capital Deposit)结构,而非传统意义上的采购合同。
这一结构的精妙之处体现在三个层面:
支出转化为资产:OpenAI将10亿美元的数据中心融资列为一项资产,同时将部分向Cerebras支付的芯片相关款项记为利息收入。这一会计处理方式可以有效对冲OpenAI对外支出,在账面上优化财务表现。
为OpenAI自身IPO铺路:知情人士透露,OpenAI计划以这份协议为模板,推进与其他云服务提供商和芯片厂商的类似安排。这种“循环协议”网络——各方相互持股、相互采购——正成为AI头部公司之间支撑大规模数据中心投资的典型模式。以AMD为例,OpenAI与Meta均已宣布采购AMD芯片的协议,并在过程中获得AMD股权。
供应链多元化的战略性工具:OpenAI计划今年在算力上支出450亿美元,明年增至900亿美元,未来五年累计超过6500亿美元。虽然其中绝大部分仍与英伟达芯片相关,但通过Cerebras和AMD的协议,OpenAI正在构建一个多层次的芯片供应商矩阵,以降低对单一供应商的依赖。
Cerebras的技术护城河:晶圆级芯片何以撼动英伟达
Cerebras成立于2015年,其技术路线与英伟达的GPU集群路线截然不同。公司最核心的技术是晶圆级引擎(Wafer Scale Engine,WSE),目前旗舰产品为WSE-3。
技术原理:传统芯片制造是将一片12英寸晶圆切割成数百个独立裸片后封装成单个芯片;而Cerebras的做法是,将几乎整片晶圆直接制成一个巨型处理器——WSE-3芯片面积达46,255平方毫米,约为一个餐盘大小,集成4万亿个晶体管和90万个AI优化核心。
性能优势:这一架构的最大优势在于解决了AI计算的“内存墙”问题。WSE-3将44GB高速SRAM直接放在90万个AI核心旁边,无需通过片外链路调取数据,内存带宽达到21PB/s,是英伟达H100 HBM带宽的约7,000倍;其内部互联带宽达27PB/s,速度是英伟达最新NVLink的206倍。
实际表现:在Llama 4 Maverick(400B参数)模型推理测试中,Cerebras CS-3系统达到2,522 tokens/秒,超过英伟达Blackwell B200的1,038 tokens/秒,领先约2.4倍;在小模型场景下差距更大,Cerebras可达约1,800 t/s,而英伟达H100约为90 t/s。
IPO冲刺:估值一年翻三倍的资本奇迹
Cerebras的估值增长轨迹堪称惊人:
2025年9月:完成11亿美元G轮融资,投后估值81亿美元
2026年2月:完成10亿美元H轮融资,投后估值飙升至约230亿美元,较G轮增长近184%
2026年4月:计划以约350亿美元估值IPO,募资约30亿美元,较H轮再溢价约60%
Cerebras已重新秘密提交IPO文件,摩根士丹利担任主承销商,目标下月完成上市。不过,公司IPO进程并非一帆风顺。2024年9月首次提交上市申请后,于同年10月撤回。撤回原因包括美国外国投资审查委员会(CFIUS)对阿联酋G42投资关系的审查,以及CEO Andrew Feldman 2007年承认的一起与收入虚增相关的重罪指控所带来的监管障碍。
客户集中度:从G42依赖到客户多元化的关键转折
Cerebras此前面临的最大质疑是收入高度集中。根据公司2024年的IPO文件,阿联酋科技公司G42在2023年贡献了Cerebras 83%的营收,2024年上半年进一步上升至87%。
这一客户集中度问题在CFIUS审查中被放大——G42与中国的历史性技术关联触发了美国国家安全审查,直接导致IPO进程延误。
然而,2026年以来Cerebras的客户结构正在发生根本性变化:
OpenAI的200亿美元协议,使其成为仅次于G42的第二大客户
甲骨文在财报电话会议中将Cerebras与英伟达、AMD并列为AI硬件供应商
亚马逊与Cerebras达成协议,将向AWS客户出租Cerebras芯片
G42已被移出Cerebras投资者名单,有效缓解了CFIUS审查压力
这一系列动作,使Cerebras从“单一客户依赖”逐步走向“多元化客户矩阵”,为IPO扫清了重要障碍。
行业竞争:AI芯片“去英伟达化”加速
OpenAI与Cerebras的合作,折射出AI芯片行业正在发生的深刻变化。
英伟达的统治力依然惊人:英伟达年收入从2022年的270亿美元飙升至2025年的2160亿美元,增幅近8倍,市场预期2026年将达3500亿美元。然而,正是这种绝对主导地位,催生了客户的多元化需求——没有任何科技巨头愿意将自己的AI命脉完全交给单一供应商。
竞争对手从四面八方浮现:谷歌自研Ironwood TPU,推理速度是英伟达GPU的4倍;Anthropic投入数百亿美元用于谷歌TPU基础设施建设;英伟达自身也以约200亿美元收购了Groq的知识产权和人才。2026年的AI芯片市场,正在从“英伟达一个人的武林”演变为多方角力的战场。
推理市场成为新战场:随着AI产业重心从模型训练转向应用落地,推理效率——而非单纯的训练算力——成为竞争焦点。Cerebras正是凭借在低延迟推理场景中的差异化优势,赢得了OpenAI的百亿美元订单。英伟达也意识到了这一点,其计划发布整合Groq LPU技术的新推理芯片,正是对这一趋势的回应。
结语:一场重塑AI芯片格局的交易
Cerebras与OpenAI的200亿美元协议,其意义远超一笔商业采购。从OpenAI的角度看,这是其“去英伟达化”战略的标志性落子,也是其自身IPO前优化财务结构的重要一步。从Cerebras的角度看,OpenAI的订单和股权投资为其IPO提供了关键背书,客户集中度问题也得到有效改善。从行业角度看,这笔交易印证了一个趋势:AI推理市场正在催生新一代芯片架构的崛起,GPU不再是唯一的选择。
当然,挑战仍然存在。Cerebras能否在IPO后持续扩大客户基础、提升毛利率、应对来自英伟达的竞争压力,都有待时间检验。但无论如何,这笔价值200亿美元的协议,已经为AI芯片行业的2026年投下了一枚重磅砝码。
划重点:
协议核心:OpenAI将在未来三年内向Cerebras支付超过200亿美元,用于租用其晶圆级芯片驱动的服务器,同时提供约10亿美元用于数据中心建设。
股权条款:若三年总支出达300亿美元,OpenAI可获得Cerebras最高10%股权。
IPO计划:Cerebras计划下月以约350亿美元估值上市,募资约30亿美元,摩根士丹利担任主承销商。
技术优势:Cerebras晶圆级引擎WSE-3在推理速度上超越英伟达Blackwell,尤其在大模型低延迟场景中具备差异化竞争力。
客户多元化:在OpenAI之外,Cerebras已进入甲骨文和AWS的供应链,有效降低了此前对G42的单一客户依赖风险。
行业趋势:AI推理市场成为芯片竞争的新焦点,“去英伟达化”趋势正在加速。