少找工具,多做创作

Google DeepMind发布Gemini 3.1 Flash-Lite 性能跃升价涨三倍

2026年3月4日,Google DeepMind发布Gemini 3.1 Flash-Lite预览版,作为Gemini系列最快的轻量型大模型,其保留每秒超360个token的输出速度与5.1秒平均响应时间,经Artificial Analysis监测智能得分较前代提升12分至34分,Arena.ai Elo分数达1432,官方同步宣布其输出价格较前代上调三倍。

在2026年全球AI大模型市场的竞争白热化阶段,Google DeepMind于3月4日抛出了一款兼具速度与性能的新武器——Gemini 3.1 Flash-Lite预览版。这款被官方定义为“系列最快性价比之选”的迭代产品,甫一亮相便凭借亮眼的实测数据,重新定义了轻量型AI模型的性能边界。

作为Gemini 2.5 Flash-Lite的继任者,Gemini 3.1 Flash-Lite并未牺牲前代的极速优势,反而在保持每秒超360个token的输出速度与5.1秒平均响应时间的基础上,实现了智能水平的跨越式提升。根据第三方评测机构Artificial Analysis的智能指数监测,新模型的得分较前代提升12分至34分,在Arena.ai公开排行榜中以1432的Elo分数跻身第一梯队,展现出极强的人类偏好竞争力。

在核心能力维度上,其表现尤为突出:在GPQA Diamond科学推理测试中取得86.9%的高分,MMMU-Pro多模态基准测试准确率达76.8%,性能已超越Anthropic旗下的Claude Opus 4.6。

此次Gemini 3.1 Flash-Lite发布的同时,Google DeepMind同步宣布其每千token的输出定价较前代Gemini 2.5 Flash-Lite上调三倍。这一调整引发了行业对“性能升级与成本平衡”的讨论:尽管单次调用的token成本有所提升,但结合其远超前代的智能表现,尤其是在多模态、科学推理等专业场景的碾压级优势,单位性能的投入反而实现了优化。对于依赖实时AI交互的企业用户而言,更低的延迟与更强的推理能力,能够有效提升业务效率,抵消价格上涨带来的成本压力。

当前AI市场对轻量型极速模型的需求持续攀升,无论是实时客服、代码辅助还是多模态内容生成,都需要兼顾速度与性能的AI工具。Gemini 3.1 Flash-Lite的推出,直接对标OpenAI GPT-4o mini、Anthropic Claude 3 Haiku等竞品,凭借1432的Elo分数与顶尖的专业测试成绩,有望抢占更多企业级AI服务的市场份额。

Google方面透露,该预览版后续将接入Google Cloud AI服务矩阵与Workspace生态,为全球开发者提供更高效的AI开发与应用工具。

目前Gemini 3.1 Flash-Lite仍处于预览阶段,Google DeepMind尚未公布正式商用的时间表,但从其性能定位来看,这款模型有望成为Google AI战略中覆盖大众与企业用户的核心轻量型产品。未来,其或将支持本地化部署、边缘计算场景适配等更多功能,进一步拓宽应用边界,为AI技术的普惠落地提供新的可能。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯