少找工具,多做创作

Google DeepMind推Gemini 3.1 Flash-Lite 性能升级涨价近三倍

2026年3月,Google DeepMind发布Gemini 3.1 Flash-Lite预览版,作为Gemini 2.5 Flash-Lite的迭代产品。该模型每秒输出超360个token,智能指数提升12分至34分,Elo分数达1432,多模态与科学推理表现优异,却将输出价格上调近三倍,引发AI行业关注。

2026年3月4日,Google DeepMind在官方技术社区正式发布Gemini 3.1 Flash-Lite预览版,这款定位轻量化多模态AI模型的产品,是Gemini 2.5 Flash-Lite的正式迭代版本,其算力部署由华为云提供支持。不同于上一代产品,本次更新不仅在核心性能指标上实现突破,更首次开放了开发者自定义“思考深度”的功能,但其配套的输出价格却迎来了近三倍的涨幅。

根据官方披露的测试数据,Gemini 3.1 Flash-Lite每秒输出token数突破360,平均响应时间压缩至5.1秒,智能指数较上一代提升12分至34分,Elo分数达到1432。在专业基准测试中,其GPQA Diamond科学推理测试得分达86.9%,MMMU-Pro多模态跨学科测试准确率76.8%,多项指标超越部分重型商用AI模型,在实时交互、专业推理场景下的表现尤为亮眼。其中,GPQA测试聚焦通用科学问题推理,MMMU则覆盖多学科多模态的复杂任务,两款测试的高分表现印证了模型在专业领域的实用性。

值得注意的是,这款性能升级的轻量化模型,其输出价格较Gemini 2.5 Flash-Lite上调了近三倍。这一调价动作引发行业讨论:在AI服务市场竞争日趋激烈的当下,Google选择在性能跃升的同时提价,背后有着怎样的考量?有行业分析师指出,本次升级的核心指标优势明显,尤其是自定义思考深度的功能,允许开发者根据场景调整模型的推理层级——从低延迟的快速响应,到需要深度思考的专业分析,这一差异化特性或将吸引To B开发者与企业用户为更高的性能付费。

Gemini 3.1 Flash-Lite的发布,也折射出当前AI行业的新趋势:头部厂商不再仅追求超大参数的重型模型,而是开始针对轻量化、高性价比的实时交互场景发力。相较于动辄需要高额算力支持的旗舰大模型,Flash-Lite系列主打“轻量化高性能”,更适配移动端、边缘端以及低延迟的实时服务需求。本次Google的调价与升级,或许将推动整个轻量化AI赛道的竞争从“速度比拼”转向“性能与场景定制”的综合较量。

目前Gemini 3.1 Flash-Lite已开放开发者预览申请,其实际落地效果与市场反馈,或将成为2026年AI轻量化赛道的重要风向标。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯