西班牙“准独角兽”Multiverse 发布免费压缩模型Hypernova-60B-2602:60B 参数仅占 32GB,性能比肩 Mistral Large 3

大型语言模型(LLM)虽强,但“大”往往意味着高昂的部署成本和难以逾越的硬件门槛。西班牙巴斯克地区的初创公司 Multiverse Computing 正试图打破这一僵局。

西班牙“准独角兽”Multiverse 发布免费压缩模型Hypernova-60B-2602:60B 参数仅占 32GB,性能比肩 Mistral Large 3

今日,该公司正式发布了 HyperNova 60B 2602,一款基于 OpenAI 开源模型压缩而成的全新大模型。更令人振奋的是,这款模型现已在 Hugging Face 上免费开放供开发者使用。Multiverse 宣称,通过其专有的 CompactifAI 技术,该模型在体积缩减近一半的同时,保持了与原始模型相当甚至更优的性能,甚至在某些基准测试中击败了法国巨头 Mistral AI 的旗舰模型。

核心技术:CompactifAI 与量子灵感

HyperNova 60B 的“秘密武器”是 CompactifAI,一种受量子计算原理启发的模型压缩技术。

  • 极致压缩:该模型基于 OpenAI 的 gpt-oss-120b(1200 亿参数)进行压缩,最终参数量降至 600 亿
  • 资源友好:模型大小仅为 32GB,约为源模型的一半。这意味着它可以在更消费级的 GPU 甚至高端笔记本上运行,大幅降低了内存占用和推理延迟。
  • 性能无损:Multiverse 表示,压缩后的模型在准确性、推理能力和工具调用方面几乎未受损失,反而因结构优化在某些场景下表现更佳。

关键特性:为智能体与工具调用而生

HyperNova 60B 2602 并非简单的“缩小版”,而是针对现代 AI 应用场景进行了深度优化:

特性描述
原生工具调用完美支持 OpenAI 风格的函数/工具调用模式,专为 AI Agent(智能体) 工作流设计。
推理增强支持可配置的推理努力程度,保留完整的思维链(Chain of Thought),便于调试复杂任务。
广泛用例适用于代码生成、RAG(检索增强生成)、逻辑推理及多步骤任务规划。
开源协议继承源模型的 Apache 2.0 许可证,允许商业自由使用。

性能对标:挑战 Mistral Large 3

在激烈的欧洲 AI 竞赛中,Multiverse 展现出了强大的自信。公司声称,HyperNova 60B 在多项基准测试中已经击败了 Mistral Large 3(法国独角兽 Mistral AI 的旗舰模型)。

这两家欧洲巨头有着诸多相似之处:

  • 全球化布局:均在美、加、欧设有办事处,服务全球企业客户(如 Iberdrola, 博世, 加拿大银行)。
  • 主权定位:都致力于提供“AI 堆栈中的主权解决方案”,减少对美国技术的依赖。
  • 资本青睐:Mistral ARR 已超 4 亿美元;Multiverse 据传正以 15 亿欧元 估值筹集 5 亿欧元新融资,年经常性收入(ARR) reportedly 已达 1 亿欧元。

地缘政治与欧洲 AI 崛起

Multiverse 的成功不仅仅是技术的胜利,更是欧洲数字主权战略的缩影。

  • 政府背书:西班牙技术转型机构参与了其 B 轮融资,巴斯克地区政府长期提供支持,近期更与阿拉贡地区政府达成合作。
  • 替代方案:在地缘政治紧张局势下,企业和政府急需非美国产的可靠 AI 基础设施。Multiverse 定位为“欧洲主权解决方案”,恰好迎合了这一需求。

如果本轮融资成功,Multiverse Computing 将成为西班牙首家独角兽企业,标志着欧洲南部在 AI 硬核科技领域的重大突破。

未来展望

Multiverse 表示,HyperNova 60B 2602 只是开始。公司计划在 2026 年开源更多经过 CompactifAI 压缩的模型,覆盖更广泛的参数量级和应用场景。

对于开发者而言,这意味着:

  • 更低成本:无需昂贵集群即可部署高性能模型。
  • 更高效率:更快的推理速度,更适合实时交互和边缘计算。
  • 更多选择:在欧洲本土技术栈中拥有了一个强有力的新选项。
© 版权声明

相关文章

暂无评论

none
暂无评论...