OpenAI 正加速摆脱对通用 GPU 的依赖。10 月 13 日,该公司宣布与半导体巨头 博通 签署多年协议,共同开发并部署 10 吉瓦(GW)的自定义 AI 加速器及配套机架系统。
根据协议,OpenAI 负责加速器与系统架构设计,博通主导芯片开发与量产。首批机架预计于 2026 年下半年上线,完整部署目标为 2029 年底前完成。
为何这次合作意义重大?
目前,OpenAI 的训练和推理基础设施主要依赖英伟达GPU。而新系统将采用 OpenAI 自研加速器 + 博通 网络与硬件 IP 的组合,标志着其向专用化、垂直整合的 AI 硬件栈迈出关键一步。
双方已秘密合作超过 18 个月。尽管技术细节有限,但联合声明确认新系统将基于 以太网架构,强调可扩展性与供应商中立性——这可能意味着 OpenAI 正在构建一个不依赖 CUDA 生态的替代方案。
硬件布局持续扩张
此次合作使 OpenAI 的总硬件承诺增至约 26 吉瓦,包括:
- 约 10 吉瓦的 NVIDIA 基础设施
- 未公开规模的 AMD MI 系列部署
- 新增的 10 吉瓦 博通 定制系统
值得注意的是,尽管有传言称 博通 拥有一位“100 亿美元级”AI 客户,但 OpenAI 并非该客户。博通 半导体总裁 Charlie Kawwas 在 CNBC 采访中半开玩笑地对 OpenAI 联合创始人 Greg Brockman 说:“我很想从你这儿拿到一份 100 亿美元的采购订单……但他还没给我。”
据《华尔街日报》报道,本次协议价值“数十亿美元”。
OpenAI 的战略考量
通过与 博通合作,OpenAI 获得了两大关键优势:
- 成熟的 ASIC 设计能力与供应链:博通 已为谷歌等超大规模客户量产定制 AI 芯片(如 TPU 配套芯片);
- 无需从零组建芯片团队:借助 博通 的 Chiplet、以太网和封装技术,快速实现硬件差异化。
这与行业趋势一致——亚马逊、谷歌、Meta 和 微软均已转向自研 AI 加速器,以优化性能、降低成本并减少对英伟达的依赖。
挑战与未知数
目前,双方未披露以下关键信息:
- 芯片代工厂(台积电?三星?)
- 封装方案(CoWoS?)
- 内存类型(HBM3e?HBM4?)
这些决策将直接影响产能爬坡速度和交付节奏。而距离首批部署仅剩约一年时间,压力已然显现。
更大的考验在于:定制芯片能否在大规模训练和推理中稳定运行?博通 的软件栈能否挑战 CUDA 的生态壁垒?
答案,或许要等到 2026 年才能揭晓。















