登录体验完整功能(收藏、点赞、评论等) — 已累计有 8613 人加入

让AI触手可及,让应用激发潜能

阿里云开源通义千问Qwen3.6-27B 编程性能实现以小博大

2026年4月22日,阿里云通义千问团队正式开源270亿参数的稠密多模态模型Qwen3.6-27B,该模型针对智能体编程与多模态推理做了深度优化,展现出“以小博大”的惊人性能:仅270亿参数的它,编程能力超越参数规模达15倍的混合专家(MoE)模型,在权威代码修复测试SWE-bench Verified中拿下77.2分,进一步完善了通义千问的开源模型矩阵。

对于国内AI开发者而言,大模型选型长期存在一个尴尬缺口:小参数模型部署成本低但性能不足以支撑复杂任务,超大参数MoE模型性能达标但开发、部署门槛极高,200-300亿区间的高性能稠密模型一直是市场呼声最高的规格。Qwen3.6-27B的发布,恰好补上了通义千问开源矩阵在这一高需求区间的空白,目前通义千问已经覆盖从亿级到千亿级全规格参数,能适配端侧、本地部署、云端服务等不同场景的开发需求。

近年来混合专家(MoE)架构成为大模型扩容的主流选择,通过仅激活部分参数降低推理成本,实现了总参数规模的快速扩张,但也带来了路由调度复杂、开发适配难度高、推理稳定性不足的问题。Qwen3.6-27B坚持采用全参数激活的稠密架构,在保证部署简单、推理稳定的同时,实现了性能的越级提升

公开测试数据显示,这款仅270亿参数的模型,在多项编程基准测试中全面超越了总参数达3970亿的前代MoE模型Qwen3.5-397B-A17B,参数规模相差15倍,编程性能反而实现反超。除了代码领域的突出表现,该模型针对多模态推理也做了深度优化,在通用推理任务上的提升同样显著。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创