少找工具,多做创作

谷歌全球上线Search Live 搭载Gemini模型落地实时AI搜索

2026年3月27日,谷歌正式面向全球超过200个国家和地区推出多模态搜索功能Search Live,该功能搭载全新Gemini 3.1 Flash Live大模型,支持用户通过手机摄像头、语音指令完成与现实场景的实时AI交互,可覆盖家具组装指导、动植物识别等多场景需求,是谷歌应对AI搜索赛道竞争的核心战略动作。

对着刚拆封的板式家具零件举起手机,不用逐页翻阅晦涩的安装说明书,直接对着摄像头提问“第三步怎么装”,不到1秒就能听到AI的语音指导,同时屏幕上弹出对应步骤的演示视频链接——这不是科幻电影里的场景,而是谷歌新上线的Search Live功能已经实现的体验。

目前该功能已同步登陆Android、iOS端的Google应用及Google Lens入口,用户无需额外下载插件,打开功能后即可通过摄像头实时捕捉物理场景,配合语音指令完成搜索。
作为功能的核心支撑,Gemini 3.1 Flash Live原生适配音视频多模态输入,将单轮交互的响应延迟压缩至300毫秒以内,对话自然度较上一代模型提升47%,彻底解决了此前图像搜索需要上传、等待匹配的痛点,真正实现了物理世界与数字信息流的无缝对接。

此次Search Live的全面落地,被业内视为谷歌应对AI搜索竞争的关键一步。作为全球搜索市场的长期主导者,谷歌近年正面临多维度的挑战:生成式搜索产品Perplexity上线两年已拿下超5000万月活用户,分流了大量高价值的搜索需求;计算机视觉领域的创业公司Luma AI推出的Uni-1模型,在3D场景识别、动态物体分析的准确率上已经追平谷歌此前的商用模型。
此前谷歌公布的内部数据显示,其搜索产品的生成式功能用户渗透率仅为12%,远低于年初定下的30%的年度目标,亟需具备差异化体验的功能拉动用户增长。而实时多模态搜索正是谷歌手握的独特优势:依托此前Google Lens积累的超千亿级图像-文本匹配数据集,Search Live在常见生活场景的识别准确率已经突破92%,远超同类竞品。

在公开的产品 roadmap 中,谷歌透露Search Live还将在年内完成多轮功能迭代:后续将接入谷歌地图、谷歌购物的全量数据,用户对准线下商户即可直接调取商户评分、在售商品优惠等信息;面向开发者的API接口也将在二季度开放,支持教育、文旅、电商等领域的第三方应用接入实时搜索能力。
不过该功能落地后也引发了部分隐私相关的讨论:由于需要实时调用摄像头捕捉环境信息,如何避免用户敏感信息被上传分析、如何明确数据使用边界,都是谷歌接下来需要回应的问题。可以确定的是,随着Search Live的全球推广,搜索的入口不再局限于手机里的输入框,现实世界的任意场景都可能成为用户获取数字信息的触点,整个搜索行业的生态也将随之发生重构。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创