OpenAI要自己做AI芯片了。据多位知情人士透露,这家ChatGPT的母公司正与半导体巨头博通合作设计专属AI芯片,预计明年正式出货。这一动作并非孤例——在英伟达垄断AI芯片市场的当下,谷歌、亚马逊、Meta等科技巨头早已纷纷布局定制化芯片,一场“去英伟达依赖”的行业浪潮正在成型。

OpenAI的芯片计划:从合作到出货的关键信息
OpenAI的芯片布局并非临时起意,而是经过长期筹备的战略选择,核心目标是满足自身激增的计算需求,同时摆脱对单一供应商的依赖。
1. 合作细节与时间线
- 合作方:与美国半导体巨头博通联合设计,博通负责芯片的研发与生产落地。
- 进展节点:双方早在2023年就已启动初步合作,目前设计阶段基本完成,锁定2025年正式出货。
- 订单规模:博通首席执行官陈福阳在近期财报会议中提到,一位“神秘新客户”承诺了100亿美元订单,知情人士确认该客户正是OpenAI。
- 使用场景:芯片将完全用于OpenAI内部——支撑ChatGPT等产品的运行、GPT-5等新一代模型的训练,暂不对外销售。
2. 博通的角色:定制芯片业务的新增长点
对博通而言,与OpenAI的合作是其定制AI芯片业务的重要突破。目前博通已锁定4家大型客户,OpenAI的加入进一步巩固了其在定制化市场的地位。
汇丰银行分析师预测,到2026年博通定制芯片业务的增长率将“远高于英伟达”。受此消息推动,博通股价今年已上涨超30%,财报发布后次日盘前交易再涨近9%。
核心动因:为什么巨头们都要“自己造芯片”?
OpenAI的选择并非个例。谷歌(TPU)、亚马逊(Trainium/Inferentia)、Meta(MTIA)等早已入局定制芯片,背后是行业对“英伟达依赖症”的集体焦虑,以及对成本、效率的现实考量。
1. 摆脱英伟达的“卡脖子”困境
英伟达凭借A100、H100等高端AI芯片占据全球约80%的市场份额,几乎垄断了大模型训练的核心硬件。但这种垄断带来两大问题:
- 供应紧张:全球AI算力需求爆发,英伟达芯片长期供不应求,甚至出现“有价无市”的情况,OpenAI等大客户也面临算力排队问题。
- 议价权弱势:过度依赖单一供应商,企业在定价、交货周期上缺乏话语权,长期来看存在供应链安全风险。
OpenAI首席执行官山姆·奥特曼曾多次直言:“计算能力是当前发展的最大瓶颈”,而自建芯片正是突破这一瓶颈的关键。
2. 定制化更适配自身需求
通用芯片(如英伟达H100)需要兼顾多种AI任务,难免存在“性能冗余”;而定制芯片可根据企业自身的模型特性、业务场景精准设计,实现“按需分配算力”:
- 谷歌TPU针对TensorFlow框架优化,推理效率比通用芯片提升数倍;
- 亚马逊Trainium聚焦大模型训练,在能耗比上优于同级别英伟达芯片;
- OpenAI的定制芯片将专门适配GPT系列模型的训练与运行,避免算力浪费,降低长期成本。
3. 成本控制的必然选择
英伟达高端AI芯片价格高昂(单张H100售价超2万美元),且随着算力需求增长,企业的硬件采购成本呈指数级上升。定制芯片虽然前期研发投入大,但长期来看:
- 无需为“冗余性能”付费;
- 可通过规模化量产摊薄成本;
- 减少对第三方供应商的中间环节支出,性价比优势会逐步凸显。
行业格局:英伟达仍占主导,但垄断正在松动
尽管巨头们纷纷布局定制芯片,但短期内英伟达的市场主导地位仍难以撼动,只是其增长逻辑正在发生变化。
1. 英伟达的“双重挑战”
- 增长放缓:虽然仍是AI芯片市场的绝对龙头,但经历了初期的爆发式增长后,其增速已有所回落——市场需求从“抢芯片”转向“优成本”,客户开始更理性地选择硬件方案。
- 客户流失风险:谷歌、Meta、OpenAI等核心大客户纷纷自研芯片,虽短期内仍会采购英伟达产品,但长期采购量可能逐步下降,影响英伟达的营收稳定性。
2. 定制芯片市场的崛起
随着博通、英特尔等传统半导体企业加大定制化业务投入,叠加科技巨头的自研需求,定制AI芯片市场正快速扩容:
- 市场份额:从2022年的不足10%,预计2026年将提升至25%以上;
- 竞争格局:形成“英伟达(通用市场)+ 博通/英特尔(定制服务)+ 科技巨头(自研自用)”的多元格局,行业垄断程度逐步降低。
对行业的影响:算力竞争进入“深水区”
OpenAI造芯片的动作,本质上是AI行业从“模型竞争”向“算力底层竞争”延伸的信号。
- 对大型AI企业:自研或定制芯片将成为“标配”,谁能掌握更高效、低成本的算力,谁就能在模型迭代、产品落地中占据主动;
- 对中小厂商:短期内仍需依赖英伟达等通用芯片,但可通过云服务商(如AWS、谷歌云)的定制芯片服务获取算力,降低入门门槛;
- 对半导体行业:定制化将成为新的增长引擎,博通、英特尔等企业有望凭借客户资源与技术积累,在AI芯片市场分走更大蛋糕。















