少找工具,多做创作

阿里开源Qwen3.5小模型家族 9B版本性能超越GPT-5 nano

2026年3月3日,智东西对外报道阿里正式开源Qwen3.5系列四款小尺寸大语言模型,覆盖0.8B、2B、4B、9B四个参数档位,其中9B版本性能宣称超越GPT-5 nano,可直接部署于笔记本电脑等轻量化端侧设备。该消息曝光后,马斯克公开发文惊叹其表现,不少国内网友已开始研究将模型移植至iPhone等移动终端,端侧AI落地话题再度升温。

3月2日晚间,阿里通过海外社交平台X正式发布了Qwen3.5小尺寸模型家族的开源公告,同步公开了四款模型的技术细节与开源代码仓库。不同于此前主打云端算力的通义千问产品线,本次推出的系列产品全部针对端侧轻量化场景做了底层优化,适配低算力设备的运行需求。

当前主流大语言模型普遍依赖云端算力集群,虽然具备强劲的通用能力,但存在网络延迟高、用户数据需上传至云端等痛点。随着移动设备、嵌入式IoT终端的算力不断升级,用户对本地AI应用的需求日益增长——比如无需联网即可使用的私人聊天助手、本地文档快速总结工具等。此前市场上的小参数模型普遍存在性能不足的问题,难以满足主流应用场景的核心需求,阿里此次推出的Qwen3.5系列正是瞄准这一空白赛道。

本次开源的Qwen3.5系列包含四个参数档位,其中最小的0.8B模型仅需几十兆内存即可稳定运行,可轻松部署于老旧笔记本、嵌入式设备等算力有限的终端。而9B版本的性能表现尤为亮眼,阿里官方宣称其在常识推理、文本生成、代码辅助等多个基准测试中,综合性能超越GPT-5 nano,达到了此前仅中高端云端模型才能实现的效果。
消息发布后,不少国内科技爱好者已经开始尝试将Qwen3.5模型移植至iPhone等移动设备,相关测试视频在社交平台快速传播。马斯克也通过个人X账号转发了相关报道,并配文“这太强了”,引发海外科技圈对国产端侧AI模型的关注。

Qwen3.5系列的开源,将进一步降低端侧AI应用的开发门槛。中小开发者无需搭建昂贵的云端算力集群,即可基于开源模型快速打造本地化AI工具;而终端厂商也可以将模型预装至设备中,为用户提供更具隐私性的AI服务。从行业趋势来看,端侧AI将成为继云端大模型之后的又一重要赛道,阿里此次布局有望推动国产端侧AI生态的快速成熟。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯