少找工具,多做创作

阿里Qwen3.5小尺寸模型开源 马斯克点赞智能密度

2026年3月2日,阿里巴巴达摩院宣布开源Qwen3.5系列四款小尺寸AI模型(0.8B/2B/4B/9B参数),覆盖从端侧边缘设备到轻量高性能应用的全场景需求。该系列继承家族原生多模态训练能力与最新架构,埃隆·马斯克在官方X平台评论该动态,称赞其“令人印象深刻的智能密度”。

3月3日,国内科技媒体IT之家率先跟进报道了这一开源动态。不同于此前Qwen3.5家族主打云端高性能的大、中型模型,本次推出的小尺寸系列,核心目标是解决AI应用在边缘端的部署痛点。

本次开源的四款小模型,参数规模从0.8B到9B不等,形成了完整的轻量化梯队。其中0.8B与2B两款极致轻量型号,体积极小且推理速度极快,特别适合移动设备、IoT边缘设备等算力有限的场景;4B与9B型号则在保持轻量特性的同时,延续了Qwen3.5家族的原生多模态训练方案,可支撑轻量级的多模态理解、生成任务,适配企业内部轻量工具开发等场景。在此之前,Qwen3.5家族已公开397B、122B、35B、27B四款大、中型模型,覆盖云端高性能与企业级算力需求。

该开源消息发布后,埃隆·马斯克在Qwen官方X平台的动态下留下评论,用“令人印象深刻的智能密度”概括对该系列模型的评价。这一评价指向当前小模型赛道的核心竞争逻辑:在有限参数规模下,如何维持乃至提升AI的核心性能。阿里官方强调,Qwen3.5小模型并非通过后期微调适配多模态任务,而是直接采用原生多模态训练架构,这也是其能在小参数下保持高智能密度的关键所在。

对于阿里而言,此次小模型开源并非单纯的技术释放,而是补全其端云协同AI生态的重要一步。此前阿里的大模型产品主要面向云端算力需求,企业或用户需依赖云端调用获取AI能力;而小尺寸模型可直接部署在终端设备,无需依赖云端,能够大幅降低AI应用的延迟与带宽成本,为移动AI、嵌入式AI等新兴场景提供标准化的技术支持。开发者可根据实际算力条件,灵活选择Qwen3.5家族的对应型号,实现从端侧到云端的全链路AI能力覆盖。

目前,Qwen3.5系列的所有开源模型已同步上架至阿里达摩院官方开源平台,开发者可免费获取商用授权。随着小模型赛道竞争加剧,如何在轻量化与高性能之间找到平衡,或将成为未来AI开源领域的核心竞争方向。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯