Day-0支持|摩尔线程率先支持混元-A13B模型

6 月 27 日,腾讯正式开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队凭借技术前瞻性,率先完成该模型在全功能GPU的深度适配与高效支持。这一成果充分彰显了MUSA架构在大模型生态中的卓越兼容性与快速响应能力——MUSA架构的高易用性设计,能够显著减少开发者在模型适配迁移过程中的技术投入,大幅提升开发效率,为AI创新成果的快速工程化落地构建了坚实的底层技术支撑。

 

 

 

 

作为业界首个13B级别的MoE开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达800亿,激活参数为130亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。

 

从混元官方发布的benchmark测试结果来看:Hunyuan-A13B在多个代码和数学任务上都取得了最高分数。在MMLU、MMLU-PRO等诸多众聚合任务上,Hunyuan-A13B达到了与Qwen3-A22B模型同等的水平,表现出优秀的综合能力。

 

摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。此前,摩尔线程在深度求索DeepSeek、通义千问QwQ-32B和Qwen3等模型的发布当日,就成功实现了Day-0支持,这一成果充分验证了先进MUSA架构和全功能GPU的技术成熟度与可靠性。

 

我们诚挚欢迎广大开发者与用户前往“夸娥工场”体验。

phone phone
人工
客服
400-667-5666

周一至周日,9:00-21:00