4月29日,阿里云正式发布Qwen3系列的8款开源混合推理模型。摩尔线程团队在模型发布当天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。这一成果充分展现了MUSA架构及全功能GPU在生态兼容性和快速支持能力方面的卓越表现。MUSA架构凭借其强大的易用性,不仅显著降低了开发者在适配迁移过程中的工作量,更大幅提升了开发效率,为创新成果的快速落地提供了坚实助力。
Qwen3作为国内首个“混合推理模型”,创造性将“快思考”与“慢思考”集成进同一个模型,在推理、指令遵循、智能体功能和多语言支持方面取得了突破性的进步。此次开源的两款MoE模型是Qwen3-235B-A22B和Qwen3-30B-A3B;同时还包括六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。

从官方发布的benchmark测试结果来看:Qwen3-235B-A22B在代码、数学、通用能力等基准测试中,成绩显著高于OpenAI-o1及Deepseek-R1版本。Qwen3-32B在各项测试中成绩同样优于OpenAI-o3-mini。
快速支持
开放体验Qwen3创新成果
摩尔线程现已将Qwen3系列模型的支持成果在“夸娥工场”开放上线。“夸娥工场”是摩尔线程倾力打造的模型展示与体验中心,旨在为用户提供基于夸娥(KUAE)智算集群支持的模型能力体验。用户可通过访问夸娥工场,亲身体验Qwen3强大的推理模型性能与创新技术。
▼ 夸娥工场”体验地址:
https://playground.mthreads.com
▼ Qwen3体验地址:
https://playground.mthreads.com:12074/
目前,主流推理引擎均可基于摩尔线程MUSA平台运行Qwen3系列模型。MUSA平台凭借其卓越性能,能够作为vLLM、Ollama、GPU Stack等各类主流开源推理引擎的后端,为Qwen3系列模型的高效运行提供强大动力。
例如,QWen3-235B-A22B(Qwen3系列最大参数量模型),基于vLLM-MUSA引擎在摩尔线程全功能GPU上稳定运行。

图示:QWen3-235B-A22B模型在vLLM-MUSA引擎适配
同时,GPU Stack引擎与llama.cpp/ollama引擎也在摩尔线程图形显卡MTT S80上高效运行,充分展现了MUSA平台的广泛兼容性与卓越性能。

图示:GPU Stack引擎在MTT S80上运行

图示:llama.cpp/ollama引擎在MTT S80上运行
共建开源生态
持续推动国产GPU发展
摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。此前,在通义千问QwQ-32B发布当日,摩尔线程就成功实现了Day-0支持,这一成果充分验证了先进MUSA架构和全功能GPU的技术成熟度与可靠性。
我们诚挚欢迎广大开发者与用户前往“夸娥工场”进行体验,与此同时,开发者也可访问摩尔线程GitHub社区与开发者社区了解更多:
▼ 摩尔线程GitHub开源社区:
https://github.com/MooreThreads
▼ 摩尔线程开发者社区:
https://developer.mthreads.com/
摩尔线程始终致力于推动开源生态的发展,通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为更多用户提供更智能、高效的解决方案。
▼ 关于摩尔线程
摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。
我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。