阿里千问推出Qwen3.5-Plus 实现原生多模态跨越式升级 2026年2月16日,阿里千问正式发布全新一代大模型Qwen3.5-Plus,完成了从纯文本能力向原生多模态的关键跨越。该模型凭借视觉与文本混合Token预训练技术实现性能突破,以不到40%的参数量追平超万亿参数基座模型的顶尖水平,多项权威评测成绩领先GPT-5.2、Claude 4.5,用户现已可通过千问APP及PC端直接体验。 在大模型赛道竞争日趋白热化的当下,多模态能力早已成为衡量模型综合实力的核心指标之一。此前多数大模型的多模态能力多为文本基座叠加视觉模块的“拼接式”升级,不同模态间的信息融合存在壁垒,处理复杂图文任务时容易出现逻辑断层。而千问Qwen3.5-Plus则采用原生多模态架构,基于视觉与文本混合Token预训练技术将两种模态的信息从训练底层深度融合,这意味着它能更自然地处理图文结合的复杂任务——无论是解析科研论文中的图表数据、根据手绘草图生成产品设计方案,还是针对实拍照片进行多维度解读,模型的响应逻辑都更接近人类的认知过程,无需在文本和视觉模块间反复切换。 更值得关注的是,Qwen3.5-Plus实现了...