少找工具,多做创作

谷歌正式发布Gemma4开源大模型 31B版本跻身全球开源榜单第三

北京时间2026年4月3日,谷歌正式推出全新开源大模型Gemma4,该系列基于Gemini3技术栈打造,共包含2.3B、4.5B高效版及26B MoE、31B稠密版四种规格,全系支持多模态输入,高效版原生支持端侧实时语音理解,31B稠密版本在Arena AI文本榜单中位列全球开源模型第三,大幅降低前沿AI能力的本地部署门槛。

就在4月3日凌晨谷歌放出Gemma4下载链接的一小时内,Hugging Face相关页面的访问量就突破了12万次,全球AI开发者社区的讨论量较平日同期暴涨370%——这款被谷歌内部视作“Gemini技术栈下沉到开源生态的核心棋子”的大模型,刚一面世就成了行业焦点。

过去两年,开源大模型的竞争始终围绕“参数规模”和“榜单排名”展开,随之而来的是部署门槛的水涨船高:排名靠前的大参数开源模型往往需要多块高端算力卡才能运行,而能在端侧部署的小参数模型又普遍存在推理能力弱、功能单一的问题,很难满足复杂智能体的开发需求。

谷歌此前推出的Gemma系列已经凭借稳定的性能表现,成为全球开发者使用率最高的开源大模型产品之一,本次发布的Gemma4正是瞄准了“性能与部署成本平衡”的市场空白,主打单位参数的效率提升,直接切中了中小开发者和企业级用户的核心痛点。

Gemma4全系列四款产品覆盖了从端侧到云端的全部使用场景,核心技术亮点完全贴合不同用户的需求:
2.3B、4.5B两个高效版模型主打端侧部署,原生支持语音输入,可实现毫秒级的实时语音理解,不需要上传数据到云端就能完成交互,在隐私性要求高的移动端、IoT设备场景优势明显;
26B MoE、31B稠密版两个高性能模型则主打云端推理,逻辑推理与函数调用能力足以驱动复杂的自主智能体工作流。其中31B稠密版在Arena AI文本榜单中位列全球开源模型第三,26B MoE版位列第六
部署门槛上Gemma4也实现了突破性优化,31B稠密版的非量化权重可直接运行于单块80GB H100显卡,4-bit量化版本甚至兼容普通消费级显卡,普通开发者不需要采购集群算力就能体验前沿大模型能力。

在Gemma4发布之前,绝大多数复杂智能体应用都需要调用闭源大模型API才能实现,不仅成本高,数据安全也存在隐患。Gemma4的出现意味着开发者可以通过本地部署开源模型,完成同等水平的智能体开发,整体成本可降低60%以上。
谷歌相关负责人透露,后续还将推出Gemma4的微调工具链和行业适配套件,面向车载、智能家居、企业办公等场景推出预训练版本,进一步降低AI应用的开发门槛。

AI生成配图

(图像由AI生成)

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创