智谱发布 GLM-4.7-Flash:30B 级 MoE 模型,本地部署首选编码与代理助手智谱 AI 正式推出 GLM-4.7-Flash——一款基于 30B 总参数、激活 3B(A3B)的稀疏混合专家(MoE)架构 的大语言模型。它在高性能与高效率之间取得出色平衡,成为本地部署场景下理想...大语言模型# GLM-4.7-Flash# 智谱1周前0310