通义千问Qwen3.5开源家族扩容,上线生产级托管API服务

1 天前 AI快讯 3

2026年2月25日,通义千问团队宣布Qwen3.5开源大模型家族新增Qwen3.5-122B-A10B、35B-A3B、27B(Dense)等多款模型,同步在阿里云百炼平台上线Qwen3.5-Flash生产级API服务。新模型通过架构优化等路径提升性能,部分超越前代更大参数版本,复杂Agent任务表现突出,显著缩小与顶尖闭源模型的差距。

在多步推理、工具调用这类需要连贯决策能力的复杂Agent任务中,开源大模型长期被GPT-4o等闭源巨头拉开差距——通义千问最新发布的Qwen3.5系列新模型,正在打破这一性能壁垒。2月25日,通义千问团队一次性推出三款Qwen3.5家族新开源模型,同步上线的生产级托管API服务,进一步打通了从技术研发到企业落地的最后一公里。

此前大模型性能提升常依赖“堆参数”的路径,但Qwen3.5系列新模型走出了不一样的路线。其中Qwen3.5-35B-A3B的性能已全面超越前代参数规模更大的Qwen3-235B-A22B模型,证明通过架构优化、数据精选与强化学习协同的组合策略,能在更小参数规模下实现性能反超。

针对复杂Agent任务的痛点,Qwen3.5-122B-A10B表现尤为亮眼,显著缩小了中小参数开源模型与顶尖闭源模型的性能差距,在多步推理、工具调用等场景中展现出接近闭源模型的决策精度。而主打“小尺寸、高能效”的Qwen3.5-27B(Dense)模型,则进一步降低了大模型的部署门槛,适合资源有限的中小开发者或边缘场景使用。

为了让企业用户无需关注底层部署细节即可快速应用新模型,阿里云百炼平台同步上线了Qwen3.5-Flash API服务。该服务与Qwen3.5-35B-A3B模型性能对齐,默认支持长达100万tokens的上下文窗口,足以处理长篇文档分析、多轮复杂对话等生产级需求,为企业提供了低成本、高可靠的大模型调用选项。

相对于企业自行部署模型,托管API服务不仅能节省算力与运维成本,还能享受通义千问团队持续的模型迭代与技术支持,让大模型应用从实验室走向生产场景的周期大幅缩短。

此次Qwen3.5家族的扩容,进一步丰富了通义千问的开源大模型矩阵,从122B参数的大模型到27B的轻量模型,覆盖了从复杂Agent任务到边缘部署的全场景需求。开源模式的优势在于,开发者可以基于Qwen3.5系列模型进行二次定制,适配医疗、教育、金融等垂直行业的专属需求,推动大模型技术的落地创新。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创