少找工具,多做创作

谷歌发布Gemini 3.1 Flash-Lite:Gemini 3系列最快高性价比AI模型

3月3日,谷歌官方发布Gemini 3系列最新轻量AI模型Gemini 3.1 Flash-Lite,该模型被官方称为系列中速度最快、最具成本效益的产品,首字响应速度较前代提升2.5倍。目前开发者可通过Google AI Studio的Gemini API获取预览版,企业级用户则可在Vertex AI平台同步体验。

据IT之家3月4日报道,谷歌此次发布的Gemini 3.1 Flash-Lite,并非面向通用场景的旗舰级大模型迭代,而是针对实时交互场景量身打造的轻量化方案。不同于此前Gemini家族主打通用能力的产品,这款新模型将延迟优化与成本控制作为核心卖点。

谷歌在官方博文中明确表示,Gemini 3.1 Flash-Lite是Gemini 3系列中速度最快、最具成本效益的AI模型。其中最直观的性能提升在于首字响应速度,较同系列前代模型提升2.5倍——对于实时对话、搜索补全、实时问答这类依赖即时反馈的场景而言,首字延迟的大幅降低,能有效减少用户的等待焦虑,避免出现“输入后等半天没反应”的糟糕交互体验。

目前,开发者可以通过Google AI Studio中的Gemini API获取Gemini 3.1 Flash-Lite的预览版本,快速完成原型验证与小范围测试;而有企业级部署需求的用户,则可以在Vertex AI平台同步体验这款模型。作为谷歌面向企业的AI开发与部署平台,Vertex AI能够帮助企业快速将轻量化AI模型集成到自有业务系统中,无需额外投入大量算力进行适配调整。

当前AI应用市场中,实时交互类场景的需求持续增长,但通用大模型往往存在延迟高、算力成本昂贵的痛点,难以适配移动端、边缘端等低算力场景。Gemini 3.1 Flash-Lite的推出,恰好填补了这一空白:在保证基础AI理解与生成能力的前提下,通过轻量化架构实现了速度与成本的双重优化,有望在客服机器人、实时内容生成、移动端AI助手等场景中获得广泛应用。

此次推出Gemini 3.1 Flash-Lite,也体现了谷歌在Gemini家族战略上的调整——从单纯追求通用大模型的性能上限,转向覆盖不同场景的分层产品矩阵。除了旗舰级的Gemini Ultra系列,面向轻量化场景的轻量模型正在成为谷歌AI布局的重要一环,后续或许还将针对不同行业推出定制化的轻量化AI方案。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯