Liquid AI发布LFM2.5系列模型:新一代设备端AI,开放权重+多模态+边缘高效部署

Liquid AI 正式推出 LFM2.5 系列模型,这是该团队针对边缘 AI 部署打造的新一代旗舰产品,基于 LFM2 设备优化架构升级而来,实现了 1B 级模型能力边界的重大突破。此次发布覆盖基础文本、指令调优、日语专属、视觉语言及音频语言五大类模型,全系列均为开放权重,现已在 Hugging Face 和 LEAP 平台上线,同时与 AMD、Nexa AI 合作完成 NPU 端优化,可无缝适配车辆、移动设备、物联网终端等多种受限硬件。

相较于前代,LFM2.5 的核心升级在于训练数据规模与训练后流程的双重强化:预训练数据从 10T token 扩展至 28T token,同时通过多阶段强化学习优化指令遵循能力,旨在成为设备端代理 AI 的核心构建模块,为各类终端设备提供私密、快速、始终在线的智能体验。

Liquid AI发布LFM2.5系列模型:新一代设备端AI,开放权重+多模态+边缘高效部署

核心模型家族:覆盖多模态设备端需求

LFM2.5 系列包含五大类模型,分别针对文本、多语言、视觉、音频等不同场景做深度优化,满足多样化边缘 AI 应用需求。

1. 通用文本模型:1B级性能天花板

LFM2.5 的通用文本模型分为两个版本,适配不同开发需求:

  • LFM2.5-1.2B-Base:基础预训练模型,是全系列模型的骨干网络,适合需要基于专有数据微调、特定领域定制(如垂直行业助手)或探索新训练方法的开发者。
  • LFM2.5-1.2B-Instruct:指令调优版模型,经过监督微调、偏好对齐与多阶段强化学习训练,开箱即用,具备出色的指令遵循和工具使用能力,可直接落地本地生产力助手、车载智能交互等场景。

基准测试表现:在 1B 规模模型中,LFM2.5-1.2B-Instruct 实现了性能与效率的双重领先。对比 Llama 3.2 1B Instruct、Gemma 3 1B IT 等同级模型,其在 GPQA(知识问答)、MMLU-Pro(多任务理解)、IFEval(指令遵循)等核心基准测试中全面领跑,具体数据如下:

模型GPQAMMLU-ProIFEvalIFBenchMulti-IFAIME25BFCLv3
LFM2.5-1.2B-Instruct38.8944.3586.2347.3360.9814.0049.12
Llama 3.2 1B Instruct16.5720.8052.3715.9330.160.3321.44
Gemma 3 1B IT24.2414.0463.2520.4744.31116.64

同时,该模型针对 CPU 推理做深度优化,相比同规模模型内存占用更低,推理速度更快,完美适配无独立显卡的终端设备。

2. 日语专属模型:精准匹配语言文化特性

LFM2.5-1.2B-JP 是专为日语场景优化的聊天模型,在保留通用能力的基础上,强化了日语知识储备与指令遵循精度,可精准捕捉日语的文化和语言细微差别。

在 JMMLU(日语多任务理解)、M-IFEval (ja)(日语指令遵循)、GSM8K (ja)(日语数学推理)三大基准测试中,LFM2.5-1.2B-JP 显著优于同规模竞品,部分指标甚至超过更大参数量的 Qwen3-1.7B 指令模式模型,具体数据如下:

模型JMMLUM-IFEval (ja)GSM8K (ja)
LFM2.5-1.2B-JP50.758.156.0
Qwen3-1.7B (指令模式)47.740.346.0
Llama 3.2 1B Instruct34.024.125.2

该模型适合开发日语本地助手、文化内容生成等应用。

3. 视觉语言模型:多图像多语言理解能力升级

LFM2.5-VL-1.6B 是升级后的多模态模型,基于 LFM2.5-base 骨干网络构建,核心提升两点:

  • 多图像理解:支持多张图片输入的关联分析,可处理更复杂的视觉任务;
  • 多语言视觉指令:优化阿拉伯语、中文、法语、德语等 7 种语言的视觉提示理解能力,输出更精准。

在 MMStar(多模态综合能力)、OCRBench v2(光学字符识别)、多语言 MMBench(多语言视觉问答)等基准测试中,LFM2.5-VL-1.6B 全面超越前代 LFM2-VL-1.6B,同时优于 InternVL3.5-1B 等同级模型,成为边缘多模态应用(如本地图像分析、多语言视觉助手)的优选方案。

4. 音频语言模型:8倍提速,原生音频处理

LFM2.5-Audio-1.5B 是一款原生音频语言模型,与传统“语音转文字+LLM处理+文字转语音”的串联方案不同,该模型可直接接收语音和文本输入,输出语音或文本,消除了组件间的信息损耗,大幅降低端到端延迟。

其核心技术亮点在于定制化 LFM 音频解码器

  • 速度提升:在移动 CPU 上,同精度下推理速度比前代 Mimi 解码器快 8 倍;
  • 量化优化:支持 INT4 量化感知训练,低精度部署下音质损失极小,与 FP32 精度的前代解码器性能接近;
  • 框架兼容:提供 llama.cpp 支持的 GGUF 格式,可在终端设备上高效运行。

在 STOI(语音可懂度)、UTMOS(语音质量评分)等音频基准测试中,LFM2.5-Audio-1.5B(INT4)表现与前代 FP32 精度模型持平,远超同量化精度的竞品。

全框架部署支持:覆盖从终端到云端的硬件生态

LFM2.5 系列的核心优势之一是开箱即用的多框架部署能力,无需复杂适配即可在主流硬件上运行,覆盖从嵌入式设备到 GPU 服务器的全场景:

  1. LEAP 平台:Liquid 官方边缘 AI 平台,可像调用云 API 一样,将模型一键部署到 iOS 和 Android 设备;
  2. llama.cpp:CPU 推理首选方案,提供 GGUF 检查点,支持量化优化,适配各类终端设备;
  3. MLX:专为 Apple Silicon 优化,充分利用其统一内存架构,提升本地推理效率;
  4. vLLM:针对 GPU 加速场景,支持高吞吐量推理,适合模型的生产级服务部署;
  5. ONNX:跨平台推理标准,可部署在 AMD、Qualcomm、Nvidia 等多种硬件加速器上。

硬件推理速度基准:终端设备表现亮眼

Liquid AI 公布了 LFM2.5-1.2B-Instruct 在多款主流硬件上的推理性能数据(基于 1K 预填充 token、100 解码 token),充分展现了其设备端适配能力:

设备推理硬件框架预填充 (tok/s)解码 (tok/s)内存占用
AMD Ryzen AI 9 HX 370CPUllama.cpp (Q4_0)2975116856MB
高通骁龙 X EliteNPUNexaML2591630.9GB
三星 Galaxy S25 UltraCPUllama.cpp (Q4_0)33570719MB

对比同规模的 Qwen3-1.7B 模型,LFM2.5 在同款硬件上的预填充和解码速度均领先,内存占用降低约 40%,更适合资源受限的终端设备。

生态合作与获取方式

  1. 合作伙伴优化:与 AMD、Nexa AI 深度合作,完成 LFM2.5 系列模型的 NPU 端优化,解锁车辆、物联网设备等更多边缘部署场景;
  2. 模型获取渠道:全系列模型已在 Hugging Face、LEAP 平台开放下载,同时提供在线游乐场和 Demo 体验,开发者可直接访问对应平台获取检查点与部署文档。

LFM2.5 系列的发布,进一步降低了设备端 AI 的部署门槛。凭借开放权重、多模态支持和高效推理的核心优势,这款模型有望成为边缘智能应用的重要基础设施,推动车载助手、本地生产力工具、物联网终端等场景的智能化升级。

© 版权声明

相关文章

暂无评论

none
暂无评论...