少找工具,多做创作

谷歌DeepMind发布Gemma4开源大模型 31B参数直逼头部梯队

2026年4月3日,谷歌DeepMind正式发布新一代开源大模型系列Gemma4,本次迭代距上一代产品发布间隔一年,不仅将开源协议更换为支持免费商用的Apache2.0,还推出4款覆盖端侧到数据中心的不同规格产品,其中310亿参数旗舰版性能位列Arena AI开源排行榜第三,单张H100显卡即可运行。

4月3日凌晨,Gemma4的发布公告刚登上DeepMind官方博客,1小时内就冲上了Hugging Face趋势榜首位,国内多个AI开发者社群也在第一时间刷屏了相关消息,不少开发者坦言,本次Gemma4的升级“诚意远超预期”。

此前Gemma系列采用谷歌自有开源协议,对商用场景有较多限制,开发者如果要将二次开发后的模型用于商业化产品,需要提前向谷歌提交申请报备,衍生代码也存在强制开源的风险。

本次Gemma4全面切换为Apache2.0协议,意味着所有开发者都可以免费下载、修改、二次分发模型,甚至直接用于商业化产品,无需公开衍生代码,也无需向谷歌报备授权,彻底解决了开发者的商用后顾之忧。

本次Gemma4共推出四个不同参数规模的版本,覆盖了从嵌入式设备到数据中心的所有推理场景:
旗舰版31B Dense采用310亿全激活参数,支持256K超长上下文窗口,在Arena AI开源大模型排行榜中高居第三,未量化版本仅需单张H100显卡即可运行,性能已经接近不少闭源头部大模型的中等规格版本。
性价比版本26B A4B MoE采用混合专家架构,总参数达252亿但激活参数仅38亿,推理速度接近常规4B参数模型,但效果远超同级别产品,在Arena AI排行榜中位列第六,适合中小企业搭建轻量化推理服务。
另外还有E4B和E2B两个端侧专属版本,经过定向压缩优化后可以直接在智能手机、边缘计算设备上运行,满足离线AI功能的部署需求。

过去一年开源大模型的竞争主要集中在参数规模和跑分性能上,随着头部开源模型的跑分差距逐渐缩小,生态友好度已经成为厂商争夺开发者的核心指标。

此前Meta的Llama系列凭借宽松的开源协议占据了七成以上的开源大模型市场份额,本次谷歌Gemma4直接采用最宽松的Apache2.0协议,明显是为了抢夺Llama的市场份额,这也会倒逼更多大模型厂商放开商用限制,进一步降低AI应用的开发门槛。

AI生成配图

(图像由AI生成)

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创