腾讯推出全新MoE模型Hunyuan-A13B:小参数、高性能的AI新选择

大语言模型5个月前发布 小马良
151 0

在大模型持续演进的过程中,如何在提升性能的同时控制资源消耗,成为行业面临的关键挑战。腾讯最新推出的 Hunyuan-A13B 模型,正是这一问题的创新性解决方案。该模型采用混合专家(MoE)架构,在仅激活 130 亿参数的情况下,展现出媲美更大规模模型的能力,为研究者与开发者提供了兼具高效能与高性价比的新选择。

核心特性一览

小参数量,高性能

尽管总参数高达 800 亿,但 Hunyuan-A13B 在推理时仅激活其中的 130 亿参数。这种“按需激活”的机制使其在多个基准任务中表现优异,甚至超越了一些更大参数量的模型。

支持多种推理模式

Hunyuan-A13B 提供快思考与慢思考两种推理模式,用户可根据具体需求灵活切换,兼顾效率与精度。

长文本处理能力

模型原生支持 256K 上下文长度,在长文档理解、复杂对话等任务中表现出稳定的性能。

强化Agent能力

在 BFCL-v3、τ-Bench、C3-Bench 等智能体评估基准上,Hunyuan-A13B 表现出领先优势,适用于构建高效的 AI Agent 应用。

高效推理设计

通过分组查询注意力(GQA)策略与多量化格式支持,模型实现了更高的推理效率,适合部署在资源受限场景。

为何选择 Hunyuan-A13B?

对于研究者和开发者而言,Hunyuan-A13B 是一个理想的平衡点:它不仅具备强大的建模能力,同时在计算资源上的开销相对可控。无论是在学术研究、开发高性价比的 AI 解决方案,还是探索新的应用场景中,这款模型都能提供坚实的技术支撑。

模型结构详解

Hunyuan-A13B 采用细粒度混合专家(Fine-grained MoE)架构,总计训练了超过 20T tokens,其核心结构如下:

参数项数值
总参数量80B
激活参数量13B
层数32
Attention Heads32
共享专家数1
非共享专家数64
路由策略Top-8
激活函数SwiGLU
隐层维度4096
专家隐层维度3072

此外,模型支持长达 256K 的上下文窗口,进一步增强了对长文本的理解能力。

Benchmark测试表现

预训练阶段表现

在预训练任务中,Hunyuan-A13B-Pretrain 在 14 个任务中的 12 项超越了前代模型 Hunyuan-Large(激活参数达 520 亿),展现了更强的学习能力和泛化能力。

与其他大型密集模型和 MoE 模型相比,Hunyuan-A13B 在代码生成、数学推理等多个任务中均取得领先成绩。在 MMLU、MMLU-PRO 等综合评测中,其表现与 Qwen3-A22B 相当,显示出全面的竞争力。

ModelMMLUMMLU-ProBBHEvalPlusMultiPL-EMBPPMATHGSM8kGPQA
Hunyuan-Large88.4060.2086.3075.6959.1372.6069.8092.8025.18
Qwen2.5-72B86.1058.1085.8065.9360.5076.0062.1291.5045.90
Qwen3-A22B87.8168.1888.8777.6065.9481.4071.8494.3947.47
Hunyuan-A13B88.1767.2387.5678.6469.3383.8672.3591.8349.12

指令微调后表现

在指令微调阶段,Hunyuan-A13B-Instruct 在数学、科学、编程、推理等多个领域都展现出极强的竞争力,尤其在 Agent 相关任务中表现突出。

领域测试项目Hunyuan-A13B-Instruct
数学AIME 2024 / AIME 2025 / MATH87.3 / 76.8 / 94.3
科学GPQA-Diamond / OlympiadBench71.2 / 82.7
编程Livecodebench / Fullstackbench63.9 / 67.8
推理BBH / DROP / ZebraLogic89.1 / 91.1 / 84.7
指令遵循IF-Eval / SysBench84.7 / 76.1
文本生成LengthCtrl / InsCtrl55.4 / 71.9
自然语言理解ComplexNLU / Word-Task61.2 / 62.9
Agent能力BFCL v3 / τ-Bench / C3-Bench78.3 / 54.7 / 63.5
© 版权声明

相关文章

暂无评论

none
暂无评论...