少找工具,多做创作

马斯克点赞阿里Qwen3.5小模型 9B参数对标120B级大模型

2026年3月,阿里通义千问团队在X平台正式发布Qwen3.5小模型系列,覆盖0.8B、2B、4B、9B四种参数规格的轻量化大语言模型。上线即引发海外科技圈强烈反响,特斯拉CEO马斯克随即在相关推文下留言称赞,这款仅9B参数的小模型对标120B级大模型的表现,打破了“大参数才是强AI”的固有认知,成为近期AI领域焦点事件。

3月2日深夜,阿里通义千问团队通过海外社交平台X发布了全新的Qwen3.5小模型系列,一口气推出0.8B、2B、4B、9B四个参数版本的轻量化模型。这条推文发布后不到24小时,便在海外科技社区获得了超10万次互动,其中一条来自特斯拉CEO埃隆·马斯克的评论,直接将这款小模型推上了全球AI话题的热搜榜。

此次发布的Qwen3.5系列最受关注的当属9B参数版本,据海外科技社区公开的实测数据,该模型在MMLU、GSM8K等通用大语言模型基准测试中,性能逼近甚至超越了部分120B参数的大型语言模型。马斯克在评论中用“Impressive intel”表达了赞赏,而不少海外网友最初对这款仅9B参数的模型表示质疑,戏称“这也叫小模型?”,直到测试细节公开后,才纷纷认可其轻量化却强劲的实力。

近年来全球AI赛道一度陷入“参数竞赛”的内卷,头部厂商纷纷推出千亿级参数的大模型,试图通过规模效应拉高性能,但高昂的算力成本和部署门槛,让小场景、边缘端的AI应用难以普及。Qwen3.5系列的推出,无疑为行业提供了新的解题思路:轻量化模型无需依赖高端算力集群,可轻松部署在移动端、嵌入式设备等场景,兼具出色性能与低成本优势,有望打开AI落地的新赛道。

此次阿里推出Qwen3.5小模型并获得马斯克点赞,也反映出海外科技圈对中国AI技术的关注度持续升温。不同于此前海外厂商主导大模型赛道的格局,国内AI团队在轻量化模型领域的布局正在加速,Qwen3.5的亮眼表现,或将推动全球AI赛道从“盲目堆参数”转向“性能与成本平衡”的理性竞争。

目前Qwen3.5系列已开放部分开源接口供全球开发者测试,阿里团队透露,后续将针对智能硬件、边缘计算等场景推出定制化的轻量化模型方案,进一步拓展小模型的应用边界。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯