本文来源:贝叶斯之美,原文标题:《大家都是在签期权合约?》
此合作与甲骨文、博通协议并不冲突,而是分层锁定:英伟达提供硬件系统,甲骨文负责电力机房,博通提供成本优化方案。OpenAI通过“期权拼图”策略,同时绑定算力、电力、成本三条约束线,为2026-2028年超大规模扩张提供供给保障。
最近股价陷疲态的英伟达深夜又给自己放了个大招,跟openAI签订意向合作,共建10Gwh数据中心,又一个长期的期权合约,现有的数据中心受困于电力还都是期权状态,这再来一个期权。
这个签约着实有点迷,博通财报大涨,因为拿到了openAI的百亿美金Asic订单,说的是要摆脱对英伟达的依赖,这过了一周,openAI又跟英伟达签了协议,绑定的更深??
事实核验|哪些已被正式披露?
这是“意向书(LOI)”,非最终协议。双方宣布拟部署至少 10 GW 的 NVIDIA 系统(“数百万颗 GPU”量级),首期1 GW目标在2026 年下半年,平台为NVIDIA “Vera Rubin”。同时,NVIDIA 拟按每个 GW 的落地进度,逐步向 OpenAI 投资最高$100B。双方将协同优化 OpenAI 模型/基础设施软件与 NVIDIA 硬软路线图,并称本合作补充他们与Microsoft、Oracle、SoftBank 及 “Stargate” 网络的既有合作。NVIDIA 先前已公开 Rubin 平台的2026 年节奏;近期又披露 Rubin GPU / Vera CPU已完成 tape-out、若验证顺利则2026 年量产。
重点:规模(≥10 GW)× 节奏(首期 2026H2)× 资本(最高 $100B、按 GW 分批)× 绑定(路线图共优)。
这份“10 GW”到底多大?
-
Rubin 世代的NVL144 机柜约~190 kW/柜,推理解耦的NVL144-CPX约~370 kW/柜;按 10 GW IT 算,相当于5.3 万柜(NVL144)或 2.7 万柜(CPX)的量级。
-
定价参考(已公开的上一代 NVL72):一柜 72 GPU 的 GB200 NVL72 “全栈到手”~$3.9M(仅机柜~$3.1M)。这给了一个每 GPU ~$54k(全栈)的票面“锚”。
若按黄仁勋你引用的口径“10 GW ≈ 4–5 百万 GPU”粗估(仅量级,不是报价):
- IT 设备 CAPEX(用 NVL72 的“$54k/GPU 全栈”做代理):≈$217B(4M GPU)— $271B(5M GPU);
-
土建/园区 CAPEX(C&W:$9.7–15.0M/MW):10 GW ≈$97–150B;
-
总 CAPEX 区间:$314–421B(视 GPU 数与建造地成本而定)。
能耗 OPEX(年)(示例:PUE 1.15–1.25,平均 IT 利用率 0.75–0.95,电价 $40–$100/MWh):
-
年用电≈75–104 TWh;
- 年电费≈$3.4–$10.4B。
这与 IEA“数据中心用电快速翻倍”的趋势相吻合,电力/PPA 才是所有合同的“真触发器”。
这个合作是openAI与甲骨文合作意外的合作?(openAI还有必须再与英伟达签协议吗?)
openAI买云→甲骨文买卡→英伟达再投资openAI,完美闭环。
这或许不是“二选一”,也不是“重复报喜”这是两层互补的合作:
甲骨文(Oracle)= 数据中心/云交付层:负责“有电的机房 + 运营”。7 月 22 日,OpenAI 和 Oracle 宣布在美国新增4.5 GW的 Stargate 数据中心产能;随后媒体报道还有约 5 年 $3000 亿的算力采购合约(2027 年起),本质是按量付费/包量的云算力合同。
英伟达(NVIDIA)= 算力硬件/平台层:负责“GPU/整机系统 + 软件栈 + 产能保障”。9 月 22 日,OpenAI 与 NVIDIA 签署≥10 GW的LOI,并写明 NVIDIA将按每个 GW 落地渐进向 OpenAI 投资最高 $1000 亿;首期1 GW计划2026 年下半年在Vera Rubin平台上线。
两条线并不冲突,官方还特别点名:此 NVIDIA-OpenAI 合作是对Microsoft、Oracle、SoftBank 及 Stargate 合作网络的“补充(complements)”。换句话说,NVIDIA 提供并投融资支持“系统级硬件”与路线图共优,这些机柜很可能就部署在 Oracle(或其他伙伴)的数据中心里,由 Oracle 负责电力、选址、上架、运维和对外交付。同一批产能,供应商与云方各自从自己的“层”对外披露,看起来像“一鱼多吃”,实则是上下游分层锁定?
为什么还要在英伟达层面单独绑定?三点现实驱动:
-
产能与优先级:Rubin 世代(含NVL144 / CPX长上下文推理形态)对HBM/先进封装的依赖极强,直连供应商能更好锁定配给与时间表。
-
技术共设计:OpenAI 的模型/基础设施软件与 NVIDIA 的硬软路线图协同优化(NVLink、网络、内存带宽、推理解耦等),减少“堆货不匹配”的浪费。
-
资本结构:NVIDIA 的“按 GW 渐进投资”本质是供应商侧的资本共担,有助于把“买硬件的大额一次性 CAPEX”转成“里程碑式的资金闭环”,与 Oracle 的云 OPEX 合同互补。
所以,Oracle 负责“有电有房的云”,NVIDIA 负责“有芯有柜的系统”,OpenAI 同时绑定两端,既锁电力与场地,也锁硬件与路线图。这不是“重复吃一条鱼”,而是同一条产业链的“上下游双保险”,用来降低 2026–2028 年超大规模扩张的供给与进度风险。
openAI的“期权拼图”渐成:OpenAI 同时在三条约束线上各签一张“有条件的期权”,并不互相否定,反而互补锁链条——
-
算力芯片/系统 → NVIDIA:签了≥10 GW的 LOI,目标首期2026 H2上线Vera Rubin平台;并写明NVIDIA 将按每个 GW 的落地分期投入“最高 $100B”,本质是“供应商产能+路线图+资金”的一体化绑定。注意是意向书(LOI),很多条款待签正式协议。
-
场地/电力/云交付 → Oracle:7 月已宣布4.5 GW的 Stargate 产能扩张;$300B的云合约框架(OPEX 形态)。这条线解决“有电的机房”与按量交付。
-
成本/风险对冲 → Broadcom(自研 ASIC):9 月多家媒体披露OpenAI×Broadcom的2026 年投产定制芯片计划(规模报导从$10B起步);定位更偏推理成本/供给安全,并不排斥继续用 NVIDIA 做前沿训练。
换句话说:NVIDIA 解决“性能与栈+供给优先级”、Oracle 解决“电与机房”、Broadcom 解决“长期单位成本与二源化”。它们确实都带“条件”,因此看起来像“期权合约”:要么绑定里程碑(电力/上架/量产),要么绑定“可转/可撤/按需触发”的容量与资金框架。CBRE 与 C&W 的数据也印证:大单产能已普遍提前多年预租/预定,而电力接入是硬约束。
“Broadcom 摆脱依赖”vs“加深绑定 NVIDIA”?怎么同时成立
-
时间维度不同:NVIDIA Rubin(2026H2)有明确平台/网络/软件栈与大规模可交付性;Broadcom 自研(2026年)仍需流片→验证→产能爬坡,更像推理成本曲线的中长期解法。两条并行并不冲突。
-
工作负载切分:前沿训练/多模态长上下文对NVLink/网络/显存带宽/软件生态高度耦合,NVIDIA 仍具优势;大规模推理与特定模型形态可由 ASIC 拉低 TCO。Rubin-CPX 正是在“解耦推理(prefill/decoding分摊)”上做机柜级产品化。
-
供应链博弈:三方同时签,锁住三大约束——硅/封装/HBM(NVIDIA 路线图与上游配给)、电力/场地(Oracle 及 PPA)、成本/二源化(Broadcom/TSMC)。这就是典型的“一鱼多吃”,但本质是多环节的期权叠加以减少 2026–2028 的落地不确定性。
看起来,大家都在签“带触发条件的期权合约”。OpenAI 用NVIDIA(训练/长上下文推理)× Oracle(电力/交付)× Broadcom(长期 TCO/二源化)三件套,去压电力、封装/HBM 与资金闭环这三道硬门槛;“10 GW”是在既有承诺之上的新增轨道,规模与周期都指向2026–2028的重投入窗口。
但是市场反复炒“期权”就应该更谨慎了!