少找工具,多做创作

谷歌DeepMind发布Gemma 4开源模型 最小2B可端侧运行免费商用

2026年4月3日,谷歌DeepMind正式开源推出旗下迄今最强开放大模型Gemma 4系列,共覆盖4种参数规模,最小版本仅2B参数可直接在手机端运行,且全系列支持免费商用。该系列单位参数性能远超参数规模达其20倍的同类模型,31B参数版本位列Arena AI文本排行榜全球开放模型第三位,高难度科学推理基准GPQA Diamond准确率达85.7%。

在闭源模型能力快速迭代的当下,头部科技厂商正在将端侧开源模型的能效比推向新的天花板,谷歌DeepMind此次发布的Gemma 4系列,正是瞄准了轻量化开源模型的性能缺口,引发全球AI开发者圈的广泛关注。

近两年大模型产业的竞争正在从单纯的参数规模比拼,转向落地场景的适配能力角逐。随着端侧AI功能成为智能手机、智能汽车、IoT设备的标配,市场对中小参数、可离线运行的开源模型需求暴涨,但此前多数小参数模型都存在推理能力不足、难以支撑复杂任务的问题,无法满足商用场景的要求。
中小参数模型的“单位参数能效”,已经成为当前大模型赛道比拼的核心指标

此次发布的Gemma 4系列共包含4种参数规格,覆盖从端侧到云端的全场景需求:最小2B参数版本可直接在主流手机上离线运行,最高31B参数版本则主打云端复杂推理场景。

根据谷歌DeepMind公布的测试数据,Gemma 4全系列的单位参数性能,超越了参数规模为其20倍的前代开源模型,实现了跨量级的能效提升。其中31B参数版本在行业公认的Arena AI文本排行榜上位列全球开放模型第三位,在高难度科学推理基准GPQA Diamond上达到85.7%的准确率,仅略低于阿里云通义千问Qwen3.5 27B版本的得分。

值得注意的是,Gemma 4全系列均开放免费商用授权,个人开发者和企业无需额外申请即可将其整合到商业产品中,大幅降低了AI应用的开发门槛。

在Gemma 4之前,能在手机端流畅运行的开源模型大多只能支撑聊天、文本摘要等简单任务,而Gemma 4的2B参数版本已经可以完成基础逻辑推理、简单智能体工作流调度等复杂任务,这意味着未来更多不需要联网的本地AI功能将快速普及。

业内人士指出,谷歌此次释放的开源模型能力,将进一步倒逼整个开源大模型赛道的技术迭代,未来1-2年内,端侧设备搭载的本地大模型能力有望追上当前主流云端模型的水平,同时用户的隐私安全也将得到更好的保障。

AI生成配图

(图像由AI生成)

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创