腾讯混元开源首款混合推理MoE模型
来源:观察者网
2025-06-27 18:12
6月27日,腾讯混元宣布开源首个混合推理MoE模型 Hunyuan-A13B,总参数80B,激活参数仅13B,效果比肩同等架构领先开源模型,但是推理速度更快,性价比更高。这意味着,开发者可以用更低门槛的方式获得更好的模型能力。
即日起,模型已经在 Github 和 Huggingface 等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署。
这是业界首个13B级别的MoE开源混合推理模型,基于先进的模型架构,Hunyuan-A13B表现出强大的通用能力,在多个业内权威数据测试集上获得好成绩,并且在Agent工具调用和长文能力上有突出表现。
加粗为最高分,下划线是第二名,数据来源于模型公开的测试数据集得分
对于时下热门的大模型Agent能力,腾讯混元建设了一套多Agent数据合成框架,接入了MCP、沙箱、大语言模型模拟等多样的环境,并且通过强化学习让Agent在多种环境里进行自主探索与学习,进一步提升了Hunyuan-A13B的效果。
在长文方面,Hunyuan-A13B支持256K原生上下文窗口,在多个长文数据集中取得了优异的成绩。
在实际使用场景中,Hunyuan-A13B模型可以根据需要选择思考模式,快思考模式提供简洁、高效的输出,适合追求速度和最小计算开销的简单任务;慢思考涉及更深、更全面的推理步骤,如反思和回溯。这种融合推理模式优化了计算资源分配,使用户能够通过加think/no_think切换思考模式,在效率和特定任务准确性之间取得平衡。
相关资料显示,Hunyuan-A13B模型是腾讯内部应用和调用量最大的大语言模型之一,有超过400+业务用于精调或者直接调用,日均请求超1.3亿。
混元官方界面截图
官方界面中显示,该模型支持快慢思考模式切换,数学、科学、长文理解及Agent能力全面提升。其中,快思考模式适合追求速度和最小计算开销的简单任务,而慢思考模式则涉及更深、更全面的推理步骤,这优化了计算资源分配,兼顾了效率和准确性。
在实测中,观察者网测试了小数比较大小,基本的四则运算等多种基本数学题目,Hunyuan-A13B模型都能迅速响应并给出正确的回答。
测试问题
据悉,混元团队还开源了两个新数据集,以填补行业内相关评估标准的空白。其中,ArtifactsBench主要用于代码评估,构建了一个包含1825个任务的新基准;C3-Bench则针对Agent场景模型评估,设计了1024条测试数据。
本文系观察者网独家稿件,未经授权,不得转载。