Liquid AI 发布 LFM2-2.6B-Exp:小模型大性能,指令遵循能力超越百倍规模对手

Liquid AI 正式推出 LFM2-2.6B-Exp —— 一个基于纯强化学习(RL)训练的实验性语言模型。它在指令遵循、常识推理和数学任务上表现突出,尤其值得注意的是:其 IFBench 评测分数已超过 DeepSeek R1-0528,而后者参数量是它的 263 倍

这一结果再次印证了:模型性能不仅取决于规模,更依赖于训练方法与目标对齐。

Liquid AI 发布 LFM2-2.6B-Exp:小模型大性能,指令遵循能力超越百倍规模对手

小而高效:LFM2 系列的核心优势

LFM2 系列采用独特的 混合架构(卷积 + 注意力),在保持较小参数量的同时实现高推理效率。全系列支持 32,768 词元上下文 和 bfloat16 精度,训练数据量统一为 10 万亿词元,覆盖 8 种主流语言:英语、中文、阿拉伯语、法语、德语、日语、韩语、西班牙语。

模型参数量层数(Conv / Attn)
LFM2-350M354M10 / 6
LFM2-700M742M10 / 6
LFM2-1.2B1.17B10 / 6
LFM2-2.6B2.57B22 / 8

所有模型均采用 65,536 词元的大型词汇表,提升语言表达密度与生成流畅度。

适用场景与使用建议

尽管 LFM2-2.6B-Exp 在多项基准中表现优异,Liquid AI 明确建议:

✅ 推荐用途

  • 智能代理(Agent)任务
  • 结构化数据提取
  • RAG(检索增强生成)中的重排或摘要
  • 创意写作与多轮对话
  • 在特定任务上微调以进一步提升性能

❌ 不推荐用途

  • 高度知识密集型任务(如专业领域问答)
  • 复杂编程或代码生成

官方强调:“由于其规模较小,建议在特定用例上对 LFM2 模型进行微调,以最大化性能。”

开源与许可

全系列模型采用 LFM 开放许可证 v1.0 发布,允许研究与商业使用,详情见官方仓库。

© 版权声明

相关文章

暂无评论

none
暂无评论...