腾讯混元开源首款混合推理MoE模型
创始人
2025-06-27 19:53:49
0

6月27日,腾讯混元宣布开源首个混合推理MoE模型 Hunyuan-A13B,总参数80B,激活参数仅13B,效果比肩同等架构领先开源模型,但是推理速度更快,性价比更高。这意味着,开发者可以用更低门槛的方式获得更好的模型能力。

即日起,模型已经在 Github 和 Huggingface 等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署。

这是业界首个13B级别的MoE开源混合推理模型,基于先进的模型架构,Hunyuan-A13B表现出强大的通用能力,在多个业内权威数据测试集上获得好成绩,并且在Agent工具调用和长文能力上有突出表现。

加粗为最高分,下划线是第二名,数据来源于模型公开的测试数据集得分

对于时下热门的大模型Agent能力,腾讯混元建设了一套多Agent数据合成框架,接入了MCP、沙箱、大语言模型模拟等多样的环境,并且通过强化学习让Agent在多种环境里进行自主探索与学习,进一步提升了Hunyuan-A13B的效果。

在长文方面,Hunyuan-A13B支持256K原生上下文窗口,在多个长文数据集中取得了优异的成绩。

在实际使用场景中,Hunyuan-A13B模型可以根据需要选择思考模式,快思考模式提供简洁、高效的输出,适合追求速度和最小计算开销的简单任务;慢思考涉及更深、更全面的推理步骤,如反思和回溯。这种融合推理模式优化了计算资源分配,使用户能够通过加think/no_think切换思考模式,在效率和特定任务准确性之间取得平衡。

相关资料显示,Hunyuan-A13B模型是腾讯内部应用和调用量最大的大语言模型之一,有超过400+业务用于精调或者直接调用,日均请求超1.3亿。

混元官方界面截图

官方界面中显示,该模型支持快慢思考模式切换,数学、科学、长文理解及Agent能力全面提升。其中,快思考模式适合追求速度和最小计算开销的简单任务,而慢思考模式则涉及更深、更全面的推理步骤,这优化了计算资源分配,兼顾了效率和准确性。

在实测中,观察者网测试了小数比较大小,基本的四则运算等多种基本数学题目,Hunyuan-A13B模型都能迅速响应并给出正确的回答。

测试问题

据悉,混元团队还开源了两个新数据集,以填补行业内相关评估标准的空白。其中,ArtifactsBench主要用于代码评估,构建了一个包含1825个任务的新基准;C3-Bench则针对Agent场景模型评估,设计了1024条测试数据。

相关内容

热门资讯

A股有色金属板块冲高 每经AI快讯,有色金属板块冲高,中色股份、豫光金铅涨逾6%,西部材料、洛阳钼业、湖南黄金等涨幅居前。...
小红书矩阵号申请攻略:详细步骤... 小红书矩阵号申请全攻略 作为国内知名生活方式分享平台,小红书已成为品牌和个人扩大影响力的关键渠道。想...
原创 2... 2024年,全国各大城市的GDP榜单犹如一幅波澜壮阔的经济画卷,缓缓展开在世人面前,其中温州的异军突...
字节跳动 - 张一鸣的创业故事 张一鸣,一个80后的“技术宅”,在中国互联网行业中赫赫有名,作为字节跳动的创始人,他带领公司从一款新...
原创 银... 2025年银行迎来了新的一项变革,瞬间感觉到温暖了许多! 针对60岁及以上的老人提供了贴心的服务! ...
为什么许多小微企业选择助贷平台... 在现代社会,越来越多的个人和企业面临资金周转的问题,尤其是当银行贷款因信用记录不佳、缺乏担保或其它原...
贷款到账后,结果以“不是本人意... 明明都签了居间合同,贷款也帮客户拿到了,到收贷款中介费时,客户却以“《贷款居间合同》不是本人签署、协...
小红书账号如何更改领域?详细步... 如何调整小红书账号领域方向 在小红书运营过程中,许多创作者会遇到内容方向与个人定位不符的情况,及时调...
突发,美国要掐死中国28nm以... 美国搬出了《1974年贸易法》的 “301条款” (贸易战的经典工具),指控中国通过“非市场手段”主...