Reflection AI

2个月前发布 74 00

Reflection AI是一家去年由两名前Google DeepMind研究员创立的初创公司,该公司原本专注于自主编码代理,现在正将自己定位为封闭前沿实验室如OpenAI和Anthropic的开源替代品,以及中国AI公司如DeepSeek的西方等价物。

所在地:
美国
收录时间:
2025-10-12
Reflection AIReflection AI

由两名前 Google DeepMind 研究员创立的初创公司 Reflection AI 宣布完成 20 亿美元融资,估值达 80 亿美元——较七个月前的 5.45 亿美元飙升近 15 倍。本轮融资由 Sequoia、DST、Lightspeed、Nvidia、Eric Schmidt、Eric Yuan(Zoom 创始人)等知名机构与个人参投。

Reflection AI

公司联合创始人 Misha Laskin(曾任 DeepMind Gemini 项目奖励建模负责人)与 Ioannis Antonoglou(AlphaGo 联合开发者)表示,Reflection AI 正从早期聚焦“自主编程智能体”转向更宏大的目标:打造美国主导的开源前沿大模型,作为 OpenAI、Anthropic 等封闭实验室的替代方案,并对标中国开源模型如 DeepSeek、Qwen

为何此时押注“美国开源”?

Laskin 指出,中国公司如 DeepSeek 已在开源 MoE(Mixture of Experts)大模型训练上取得突破,推动 Qwen、Kimi 等模型快速迭代。“如果我们不行动,全球 AI 标准将由中国定义,”他表示,“而美国及其盟友出于法律与安全考量,很难采用中国模型。”

这一判断获得部分美国科技界支持。白宫 AI 事务负责人 David Sacks 在 X 上评论:“美国需要开源 AI 模型,以满足全球市场对成本、可控性与定制化的需求。”Hugging Face CEO Clem Delangue 也称此次融资是“美国开源 AI 的重要进展”。

技术进展与产品路线

  • 团队规模约 60 人,专注基础设施、数据工程与算法研发;
  • 已建成专用 AI 训练集群,目标明年初发布首个 基于数十万亿 token 训练的文本大模型,后续将支持多模态;
  • 核心技术为 大规模 MoE 架构,此前仅限 OpenAI、Google 等巨头掌握,现 Reflection AI 声称已实现自主训练能力。

公司在 X 上表示:“我们构建了曾被认为只有顶级实验室才能实现的大规模 LLM 与强化学习平台,现已将其从编程智能体扩展至通用智能体推理。”

“开源”策略:权重开放,训练闭环

Reflection AI 对“开源”的定义类似 Meta 的 Llama 或 Mistral:公开模型权重(即核心参数),允许任何人下载、微调和部署;但 训练数据、完整数据集与训练管道保持专有

Laskin 解释:“模型权重是最具影响力的部分。研究人员可免费使用,企业则可在自有基础设施上运行、定制,避免被云厂商锁定。”

商业模式:服务企业与“主权 AI”需求

公司计划通过两类客户实现商业化:

  1. 大型企业:需要在私有环境中部署可控、可优化的开源模型,以降低长期 AI 成本;
  2. 主权国家:寻求构建本国可控的“主权 AI”系统,避免依赖外国技术。

“当你为 AI 支付数百万美元时,你希望完全掌控它——这正是我们的市场,”Laskin 表示。

挑战与期待

尽管融资规模惊人,Reflection AI 尚未发布任何公开模型。其成败将取决于:

  • 首个模型的实际性能是否达到“前沿”水平;
  • 能否兑现“高速开源共享”承诺,建立活跃开发者生态;
  • 在 MoE 架构日益普及的背景下,如何构建可持续技术壁垒。

若成功,它或将成为美国在开源大模型领域对抗中美双极格局的关键力量。

:本轮融资投资方包括 Nvidia、Sequoia、DST、Lightspeed、GIC、Citi、B Capital、1789 Capital、CRV、Disruptive 等。

数据统计

相关导航

暂无评论

none
暂无评论...