少找工具,多做创作

阿里通义千问开源四款Qwen3.5小尺寸模型,覆盖0.8B至9B参数区间

3月2日,阿里通义千问正式开源四款Qwen3.5系列小尺寸模型,参数覆盖0.8B至9B区间,可满足从IoT设备、移动终端到服务器端的全场景部署需求。其中不同参数模型各有侧重:0.8B/2B主打端侧轻量推理,4B适配轻量级Agent开发,9B则在紧凑参数下实现高性能表现,目前已上线魔搭社区与Hugging Face平台。

在大语言模型向大参数、多模态方向快速迭代的当下,轻量级模型正成为破解AI落地“最后一公里”的核心抓手。不少中小开发者、硬件厂商因算力成本、部署门槛等限制,难以接入前沿AI能力,而通义千问此次开源的四款小模型,恰好填补了这一需求空白。

四款Qwen3.5小尺寸模型针对不同部署场景做了精准分工:
0.8B与2B参数模型主打“极致轻量”,推理速度极快,无需依赖云端算力即可在移动设备、IoT终端等资源受限的硬件上运行,是端侧AI应用的理想选择,可支持语音助手、本地智能交互等功能的开发。
4B参数模型则瞄准轻量级Agent赛道,作为性能强劲的基座模型,能支撑智能自动化工具、小型任务助手等场景的核心逻辑运行,兼顾资源消耗与功能复杂度。
9B参数模型在紧凑的参数规模下实现了越级性能,可在服务器端承担文本生成、复杂推理等任务,部署成本远低于大参数模型,为中小团队提供了高性价比的AI解决方案。

此次开源的小尺寸模型并非“简化版”,而是完整继承了Qwen3.5家族的核心技术优势:采用原生多模态训练框架与优化后的模型架构,在自然语言理解、文本生成、基础推理等任务上的表现,甚至能媲美部分更大参数的竞品模型。通过轻量化技术对参数规模进行精准压缩,在保证性能的同时,大幅降低了推理延迟与资源占用。

大模型的落地难题,很大程度上源于高部署成本与场景适配性不足。而轻量级开源模型的推出,正在打破这一僵局:IoT厂商可快速接入0.8B模型开发本地智能功能,开发者能基于4B模型快速搭建轻量级Agent,中小团队则可通过9B模型获得低成本的高性能AI基座。这种全场景覆盖的开源布局,不仅能降低AI技术的应用门槛,还能推动AI能力从“云端”走向“端边云”协同的深度普及。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯