五年后,我们终于等到了 OpenAI 的“开放”模型!OpenAI 发布 gpt-oss-120b 与 gpt-oss-20b

早报4个月前发布 小马良
408 0

OpenAI 今日正式发布两款开放权重(open-weight)AI 推理模型:gpt-oss-120b 和 gpt-oss-20b

这是自 GPT-2 以来,OpenAI 首次向公众开放其语言模型权重,标志着这家长期坚持闭源策略的公司,在开源浪潮下的重大转向。

OpenAI 发布两款高性能模型免费可商用开源大模型gpt-oss-120b 与 gpt-oss-20b

这两款模型已在 Hugging Face 平台免费上线,采用宽松的 Apache 2.0 许可证,允许自由使用、修改与商业化部署。

它们不仅是技术产品,更是一次战略宣言:

OpenAI 正试图在“美国价值观主导的开放 AI 生态”中重新夺回话语权

为什么是现在?一场被倒逼的“开源”

长期以来,OpenAI 以闭源模型为核心构建商业壁垒,通过 API 向企业收费,建立起庞大的 AI 服务生态。

但近年来,形势已变:

  • 中国 AI 实验室强势崛起:DeepSeek、阿里巴巴 Qwen、月之暗面等推出了一系列性能强大、完全开源的模型,迅速占领全球开发者心智;
  • Meta 的 Llama 系列虽仍领先,但更新节奏放缓,社区期待新的突破;
  • 美国政府施压:今年7月,特朗普政府公开呼吁美国 AI 公司“开源更多技术”,以对抗“非民主价值观驱动的 AI 扩张”。

面对内外压力,OpenAI CEO Sam Altman 在一月坦言:

“我们在开源这件事上,可能站在了历史的错误一边。”

如今,gpt-oss 的发布,正是这一反思的结果。

模型能力:性能接近 o 系列,但幻觉更严重

gpt-oss 系列并非实验性模型,而是基于 OpenAI 当前最先进的训练技术打造。

🔹 gpt-oss-120b:接近 o4-mini 的高性能推理模型

  • 总参数:117B(MoE 架构)
  • 激活参数:每 token 仅 5.1B,高效运行
  • 部署:可在单块 80GB GPU 上运行

🔹 gpt-oss-20b:轻量级边缘推理选择

  • 总参数:21B
  • 部署:仅需 16GB 存,可在消费级笔记本运行

在多个基准测试中表现如下:

基准gpt-oss-120bgpt-oss-20b对标模型
Codeforces(竞技编码)26222516超越 DeepSeek R1
Humanity’s Last Exam19%17.3%优于 Qwen、DeepSeek 开源模型
幻觉率(PersonQA)49%53%显著高于 o1(16%)和 o4-mini(36%)

尽管性能在开放模型中处于领先地位,但其幻觉问题尤为突出。OpenAI 在白皮书中承认:

“较小的模型知识更少,倾向于产生更多幻觉。”

这提醒开发者:不能将这些模型用于高可靠性场景,除非经过严格微调与对齐

五年后,我们终于等到了 OpenAI 的“开放”模型!OpenAI 发布 gpt-oss-120b 与 gpt-oss-20b

技术架构:与闭源模型共享训练栈

gpt-oss 并非简化版模型,而是在多个关键技术上与 o 系列保持一致:

  • 混合专家(MoE)架构:大幅提升推理效率,降低部署成本;
  • 强化学习(RL)后训练:使用大规模 GPU 集群进行高计算训练,教会模型“如何思考”;
  • 链式推理(Chain-of-Thought, CoT):支持多步推理与工具调用(如代码执行、网页搜索);
  • 工具使用能力:可驱动 AI 代理完成复杂任务。

但也有明确限制:

  • 仅支持文本,不支持图像或音频处理;
  • 不发布训练数据:出于版权诉讼风险考虑,OpenAI 未公开训练语料。

这与 AI2、DeepSeek 等完全开源数据的实验室形成对比,也意味着其“开放”仍有一定保留。

开放的意义:不只是技术,更是生态竞争

OpenAI 的开源动作,远不止于让开发者多一个模型可用。

它背后是三重目标:

1. 赢回开发者信任

过去几年,OpenAI 因闭源、涨价、接口不稳定等问题,逐渐失去部分开源社区支持。此次发布 Apache 2.0 模型,是重建关系的关键一步。

2. 响应美国政府号召

通过推出“由美国创建、基于民主价值观”的开放模型,OpenAI 在地缘科技竞争中站队明确。

3. 构建混合 AI 架构

OpenAI 强调:其开放模型可作为“前端”,将复杂任务(如多模态、超长推理)转发给云端闭源模型(如 o4-mini)。
这形成了一种新范式:

本地运行 gpt-oss 处理常规任务,云端调用 o 系列处理高难度请求

既满足隐私与低延迟需求,又保留顶级能力。

与 Mistral 的竞争:开放模型战场已全面打响

就在上周,Mistral AI 发布了其完整企业编码栈,包括 Codestral 25.08Devstral 与 Codestral Embed,并已在 Capgemini、Abanca、SNCF 等企业投产。

Mistral 的优势在于:

  • 全栈集成:补全、搜索、代理一体化;
  • 完全私有化部署;
  • 支持本地运行与定制微调。

而 OpenAI 的 gpt-oss 则凭借:

  • 更强的推理能力;
  • 与 o 系列共享的技术栈;
  • 更广泛的生态支持(Azure、ONNX、Windows 本地推理);

形成差异化竞争。

这场“开放模型之战”,不再是 Meta 一家独大,而是演变为 美国 vs 中国、闭源巨头 vs 开源新锐、全栈平台 vs 单点突破 的复杂博弈。

开发者该如何选择?

需求推荐选择
需要最强推理能力gpt-oss-120b
边缘设备部署gpt-oss-20b 或 Devstral Small
私有化、合规要求高Mistral 编码栈(全自托管)
希望商业化且无许可风险gpt-oss(Apache 2.0)或 Codestral(MIT)
构建 AI 代理工作流Devstral + OpenHands 或 gpt-oss + Responses API
© 版权声明

相关文章

暂无评论

none
暂无评论...