据官方消息,英伟达(NVIDIA)与 OpenAI 达成一项长期战略合作协议,旨在共同构建下一代 AI 基础设施。根据协议,OpenAI 将在其 AI 计算体系中部署总计 10 吉瓦(GW) 的英伟达系统,用于训练和运行未来的大规模模型。(英伟达公告 | OpenAI公告)

为支撑这一庞大的部署计划,英伟达计划在未来数年投入高达 1000 亿美元,并非一次性现金注资,而是以资源形式分阶段提供——包括硬件供应、技术支持和可能的融资安排,随新系统的上线逐步兑现。
该合作标志着全球两大 AI 核心力量在基础设施层面的深度绑定,也反映出前沿 AI 模型对算力需求的指数级增长已进入“吉瓦级”时代。
10 吉瓦意味着什么?
10 吉瓦(10,000 兆瓦)是衡量电力消耗的单位,在数据中心语境中代表持续运行的计算负载能力。
作为参考:
- 美国一个中等城市约需 1–2 吉瓦供电;
- 当前大型超算中心单体功耗通常在几十兆瓦量级;
因此,10 吉瓦相当于数十座顶级 AI 数据中心的总和,暗示 OpenAI 正在规划前所未有的算力规模。
这些系统预计将容纳数百万颗 GPU,主要用于:
- 训练参数远超当前水平的下一代大模型;
- 支持更高并发的推理服务;
- 推动 Agent 系统、具身智能等前沿方向的研发。
首阶段部署:基于 Vera Rubin 平台
OpenAI 表示,该基础设施的第一阶段预计于 2026 年下半年上线,将基于英伟达下一代平台 Vera Rubin。
据披露,Vera Rubin 相比当前旗舰产品 GB300 NVL72 实现显著跃升:
| 指标 | 提升幅度 |
|---|---|
| AI 性能(FP8) | +650%(7.5 倍) |
| 单机架内存容量 | 100TB 高速内存 |
| 内存带宽 | 1.7 PB/s |
这一代际升级不仅提升单节点效率,也将降低整体能效比(FLOPs/Watt),对应对数据中心空间与能耗瓶颈至关重要。
合作关系细节
此次合作不仅是采购关系,更包含多维度协同:
✅ 英伟达成为“首选战略伙伴”
- 在 OpenAI 的“AI 工厂”扩展计划中,英伟达被指定为首选计算与网络供应商;
- 双方将联合优化软硬件栈:OpenAI 调整模型架构与调度系统,英伟达匹配硬件设计与 CUDA 生态。
✅ 补充而非替代现有合作
OpenAI 强调,该协议不取代其与微软、甲骨文(Oracle)、软银(SoftBank)和 Stargate 的已有基础设施合作,而是并行补充。
背景提示:
- 微软仍是 OpenAI 最大股东,并提供 Azure 云资源;
- 2024 年初,微软调整合作框架,允许 OpenAI 自主建设额外算力;
- 此后 OpenAI 加速多元化布局,降低对单一供应商依赖。
投资形式尚不明确
目前尚未披露“1000 亿美元”的具体构成。可能的形式包括:
- 设备赊销或分期交付:英伟达提前供货,OpenAI分期支付;
- 联合融资机制:共同设立基金或吸引第三方资本参与数据中心建设;
- 云信用或服务置换:通过 NVIDIA DGX Cloud 或其他服务抵扣;
- 股权+资源组合:类似早期微软投资模式。
无论形式如何,这笔投入都意味着英伟达将深度嵌入 OpenAI 的长期发展路径。
行业影响与战略意义
对 OpenAI:
- 显著增强自主算力掌控能力;
- 缓解对微软 Azure 的依赖,提升谈判地位;
- 为商业化产品(如企业 API、定制模型)提供稳定底座。
对英伟达:
- 锁定全球最大 AI 模型开发商之一的长期订单;
- 加速 Vera Rubin 等新技术落地验证;
- 强化从芯片到系统再到软件的全栈控制力。
对整个 AI 生态:
- 吉瓦级部署预示着 AI 基础设施正向“电力密集型产业”演进;
- 头部玩家已进入“算力军备竞赛”,门槛进一步提高;
- 数据中心选址、供电保障、冷却技术将成为关键制约因素。















