登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

阿里通义千问开源Qwen3.6 MoE模型 编程视觉双提升

2026年4月17日,阿里通义千问团队正式发布旗下首个开源Qwen3.6系列混合专家(MoE)模型Qwen3.6-35B-A3B。该模型总参数量350亿,实际激活参数仅30亿,主打轻量高效特性,在编程、视觉两项核心能力上实现升级,视觉表现直逼Claude Sonnet 4.5,同时兼容OpenClaw开发框架,适配第三方智能体开发需求。

当前大模型赛道正呈现出闭源拼顶流性能、开源拼普惠效率的分化趋势,通义千问这次开源动作,恰好击中了开发者群体对低成本高性能MoE模型的需求缺口。

近年来,大语言模型参数规模不断攀升,顶流闭源模型的激活参数已经突破千亿门槛,虽然性能持续升级,但高昂的推理和部署成本,把绝大多数中小开发团队拦在了创新门槛之外。MoE架构凭借“总参数大、激活参数小”的特性,被业内认为是兼顾性能和成本的最优路径之一,但此前市面上的开源MoE模型要么性能跟不上最新梯队,要么激活参数仍偏高,难以满足普惠开发需求。

此次开源的Qwen3.6-35B-A3B,是Qwen3.6系列的首个开源MoE版本,该模型总参数量350亿,单次推理过程仅激活30亿参数,这样的设计让它在保持接近大参数模型能力的同时,推理成本大幅降低,普通开发者甚至可以在消费级高端显卡上本地部署运行。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创