微软正在通过大规模外部采购GPU资源,重新配置其AI基础设施布局。最新消息显示,公司已与多家被称为“新云”(New Cloud)的数据中心提供商达成总计约 330亿美元 的资本支出协议,其中仅与初创公司 Nebius 的交易就接近 194亿美元,并锁定超过 10万块英伟达 GB300芯片。

这笔交易并非用于对外服务客户,而是为微软内部AI团队提供专用算力——这揭示了其当前AI战略中一个关键但少被提及的事实:即便拥有全球最大规模之一的自有数据中心网络,微软仍需依赖外部资源来支撑其核心AI研发。
锁定10万+ GB300芯片:一场对顶级算力的争夺
据知情人士透露,微软与Nebius的协议将使其获得对“超过10万块英伟达最新GB300 GPU”的访问权。若以标准配置推算,这些芯片很可能集成于 GB300 NVL72 服务器机架 中,每台机架包含72块B300 GPU。这意味着微软此次间接控制了约 1,400台全配NVLink互联机架。
按每台机架估算价值约300万美元计算,整套系统的硬件成本接近 42亿美元,而194亿美元的总协议金额远超硬件本身价格。差额可能涵盖长期电力供应、运维服务、带宽保障以及对未来扩容的优先权承诺。
这些资源将主要用于支持微软内部团队开发大型语言模型和消费者级AI助手产品,包括:
- Copilot+ PC 的底层模型训练;
- GitHub Copilot 的持续优化;
- 各类企业及个人场景下的Copilot变体。
该团队隶属于微软的 Core AI 组织,是推动微软全面AI化的核心引擎。
“借地种田”:用外租产能反哺云业务增长
值得注意的是,微软之所以选择外包部分AI训练负载,是为了腾出自有数据中心容量,转而出租给外部客户。
作为Azure云服务的运营方,微软需要不断向资本市场证明其在AI基础设施上的巨额投资能够转化为可盈利的服务能力。通过将自建数据中心优先用于对外销售,微软可以:
- 提高资产利用率;
- 增强客户绑定;
- 展示收入增长潜力。
这种“租进来,租出去”的模式,已成为超大规模云厂商应对AI算力爆炸性需求的新策略。
投资流向三大“新云”玩家
除Nebius外,其余约 130亿美元 的支出已分配给其他新兴AI数据中心运营商,主要包括:
- CoreWeave:原为加密挖矿基础设施服务商,转型专注AI算力租赁,是英伟达新品的首批采购者之一,曾与OpenAI签署数亿美元合同。目前正计划在宾夕法尼亚州建设一座耗资60亿美元、功率达100兆瓦(MW)的数据中心。
- Nscale:由前Google Cloud高管创立,聚焦高性能计算集群部署。
- Lambda:提供面向机器学习团队的即用型GPU云服务,在研究社区中有较高渗透率。
这类“新云”公司共同特点是:响应速度快、灵活定制能力强、能快速部署最新一代英伟达硬件,弥补了传统云厂商因供应链和规划周期限制导致的交付延迟。
自建步伐未停:威斯康星超大规模园区启动
尽管大量依赖外部资源,微软并未放缓自建数据中心的脚步。
上个月,公司宣布将在威斯康星州芒特普莱森特(Mount Pleasant) 建设一座占地315英亩的AI专用园区。该项目预计将容纳数十万块GPU,铺设光纤总长足以绕地球4.5圈,并配备独立供电系统,实现能源自给。
这一举措表明,微软仍在构建长期自主可控的AI基础设施能力,而外部采购更多是应对短期供需错配的补充手段。
AI算力扩张的社会成本开始显现
然而,这场全球范围内的AI数据中心建设热潮,也带来了现实影响:
- 过去五年间,美国AI数据中心密集区域的批发电价上涨267%,部分成本最终转嫁至居民电费;
- Elon Musk旗下xAI在田纳西州建设的Colossus数据中心被指排放有害污染物;
- 怀俄明州一座未公开所有者的新型数据中心预计耗电达该州居民总用电量的五倍,引发地方监管担忧。
随着算力需求持续攀升,如何平衡技术创新与公共利益,将成为科技巨头和地方政府必须面对的问题。















