阿里开源三款中型千问3.5模型,推理成本低至0.2元/百万Token

1 天前 AI快讯 3

2月25日,阿里巴巴在除夕开源大尺寸千问3.5模型后,再次推出三款中型千问3.5系列新模型——Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。新模型通过架构创新实现性能超越GPT-5 mini及阿里上代旗舰模型,支持消费级显卡部署,其托管版本Qwen3.5-Flash已上线阿里云百炼,推理成本低至每百万Token0.2元。

当前AI行业正处于大模型技术向产业落地的关键阶段,超大参数模型虽性能强劲,但高昂的部署与推理成本让中小企业和个人开发者望而却步。中型模型凭借性能与成本的平衡优势,逐渐成为连接技术与落地的核心载体。阿里此次开源的三款千问3.5模型,正是精准瞄准了这一赛道的市场需求。

不同于传统堆参数的发展路径,此次发布的千问3.5中型模型采用混合注意力机制结合高稀疏MoE架构的创新方案,同时基于更大规模的文本与视觉混合Token开展训练。这种技术组合让新模型在总参数和激活参数量更小的前提下,实现了性能的大幅跃升——不仅超越了阿里上代旗舰模型Qwen3-235B-A22B和Qwen3-VL,在多行业评测榜单上的表现也明显优于GPT-5 mini,创下了中等尺寸模型的性能新高。

除了性能突破,新模型的部署门槛降低更具行业里程碑意义。三款中型千问3.5模型均可直接部署于消费级显卡,无需依赖昂贵的专业AI算力硬件,这让个人开发者和中小团队无需投入大量成本,就能快速搭建属于自己的AI应用原型。同时,基于Qwen3.5-35B-A3B打造的托管模型Qwen3.5-Flash已上线阿里云百炼,每百万Token输入成本低至0.2元,进一步降低了企业的长期推理运营成本。

从除夕开源大尺寸千问3.5模型到此次推出中型版本,阿里正在持续完善千问系列的开源生态。中型模型的加入,填补了超大模型与小模型之间的市场空白,让AI技术的普惠性进一步提升。未来,更多细分领域的中小企业有望借助这些低成本、高性能的模型,快速实现业务智能化升级,推动AI应用向更广泛的生活生产场景渗透。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创