
由两名前 Google DeepMind 研究员创立的初创公司 Reflection AI 宣布完成 20 亿美元融资,估值达 80 亿美元——较七个月前的 5.45 亿美元飙升近 15 倍。本轮融资由 Sequoia、DST、Lightspeed、Nvidia、Eric Schmidt、Eric Yuan(Zoom 创始人)等知名机构与个人参投。

公司联合创始人 Misha Laskin(曾任 DeepMind Gemini 项目奖励建模负责人)与 Ioannis Antonoglou(AlphaGo 联合开发者)表示,Reflection AI 正从早期聚焦“自主编程智能体”转向更宏大的目标:打造美国主导的开源前沿大模型,作为 OpenAI、Anthropic 等封闭实验室的替代方案,并对标中国开源模型如 DeepSeek、Qwen。
为何此时押注“美国开源”?
Laskin 指出,中国公司如 DeepSeek 已在开源 MoE(Mixture of Experts)大模型训练上取得突破,推动 Qwen、Kimi 等模型快速迭代。“如果我们不行动,全球 AI 标准将由中国定义,”他表示,“而美国及其盟友出于法律与安全考量,很难采用中国模型。”
这一判断获得部分美国科技界支持。白宫 AI 事务负责人 David Sacks 在 X 上评论:“美国需要开源 AI 模型,以满足全球市场对成本、可控性与定制化的需求。”Hugging Face CEO Clem Delangue 也称此次融资是“美国开源 AI 的重要进展”。
技术进展与产品路线
- 团队规模约 60 人,专注基础设施、数据工程与算法研发;
- 已建成专用 AI 训练集群,目标明年初发布首个 基于数十万亿 token 训练的文本大模型,后续将支持多模态;
- 核心技术为 大规模 MoE 架构,此前仅限 OpenAI、Google 等巨头掌握,现 Reflection AI 声称已实现自主训练能力。
公司在 X 上表示:“我们构建了曾被认为只有顶级实验室才能实现的大规模 LLM 与强化学习平台,现已将其从编程智能体扩展至通用智能体推理。”
“开源”策略:权重开放,训练闭环
Reflection AI 对“开源”的定义类似 Meta 的 Llama 或 Mistral:公开模型权重(即核心参数),允许任何人下载、微调和部署;但 训练数据、完整数据集与训练管道保持专有。
Laskin 解释:“模型权重是最具影响力的部分。研究人员可免费使用,企业则可在自有基础设施上运行、定制,避免被云厂商锁定。”
商业模式:服务企业与“主权 AI”需求
公司计划通过两类客户实现商业化:
- 大型企业:需要在私有环境中部署可控、可优化的开源模型,以降低长期 AI 成本;
- 主权国家:寻求构建本国可控的“主权 AI”系统,避免依赖外国技术。
“当你为 AI 支付数百万美元时,你希望完全掌控它——这正是我们的市场,”Laskin 表示。
挑战与期待
尽管融资规模惊人,Reflection AI 尚未发布任何公开模型。其成败将取决于:
- 首个模型的实际性能是否达到“前沿”水平;
- 能否兑现“高速开源共享”承诺,建立活跃开发者生态;
- 在 MoE 架构日益普及的背景下,如何构建可持续技术壁垒。
若成功,它或将成为美国在开源大模型领域对抗中美双极格局的关键力量。
注:本轮融资投资方包括 Nvidia、Sequoia、DST、Lightspeed、GIC、Citi、B Capital、1789 Capital、CRV、Disruptive 等。
数据统计
相关导航


Claw Cloud Run

Nous Research

Parallel
Claude Relay Service

Replicate

AUI






