Anthropic 与谷歌云近日宣布达成一项重大扩容协议:到 2026 年,Anthropic 将可使用 多达一百万个谷歌 TPU 芯片,获得 超过 1 吉瓦(GW)的 AI 计算能力,用于训练和部署其 Claude 系列大模型。

自 2023 年起,Anthropic 已依托谷歌云基础设施训练模型,并通过 Vertex AI 和 谷歌云市场 向企业客户提供 Claude 服务。客户包括 Figma、Palo Alto Networks、Cursor 等知名公司。
Anthropic 首席财务官 Krishna Rao 表示:“这次扩容将确保我们满足指数级增长的客户需求,同时保持模型处于技术前沿。”谷歌云 CEO Thomas Kurian 则强调,Anthropic 的选择反映了 TPU 在 性价比与能效 上的长期优势,尤其是最新一代 第七代 TPU Ironwood 的成熟度。
与 OpenAI、xAI 的路径分化
这一战略凸显了 Anthropic 与主要竞争对手的显著差异:
- OpenAI 正推进名为 Stargate 的自有数据中心计划,预计投资数百亿美元,并探索自研芯片;
- xAI(马斯克旗下)已在孟菲斯部署大型超级集群,并计划建设更大规模的 AI 专用设施,预计 2025 年资本支出达 130 亿美元。
相比之下,Anthropic 选择 不自建数据中心,而是深度绑定现有云平台。这一模式可避免巨额前期投入和硬件迭代风险,使其更聚焦于模型研发与产品落地。
风险与权衡
尽管云合作模式具备灵活性和快速扩展优势,但也带来潜在依赖:算力供应、定价策略和长期可用性受制于单一云厂商。不过,考虑到 Anthropic 已与谷歌建立多年技术协同,且协议可能包含长期保障条款,这一风险在当前阶段被视为可控。
随着全球 AI 算力需求持续飙升,Anthropic 的“轻资产+云优先”策略,或为其他 AI 原生公司提供一条不同于“重基建”的可行路径。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...















