新LiquidAI 发布 LFM2-24B-A2B:240 亿参数 MoE 模型,仅需 20 亿激活即可在 32GB 内存笔记本上流畅运行大模型是否只能存在于云端集群?LiquidAI 给出了否定的答案。 LiquidAI 正式发布了 LFM2-24B-A2B,这是其 LFM2 家族中规模最大的早期模型。这款稀疏混合专家(MoE)模型拥...大语言模型# LFM2-24B-A2B# LiquidAI12小时前0330