登录体验完整功能(收藏、点赞、评论等) — 已累计有 8671 人加入

让AI触手可及,让应用激发潜能

谷歌全球上线Search Live 搭载Gemini模型落地实时AI搜索

2026年3月27日,谷歌正式面向全球超过200个国家和地区推出多模态搜索功能Search Live,该功能搭载全新Gemini 3.1 Flash Live大模型,支持用户通过手机摄像头、语音指令完成与现实场景的实时AI交互,可覆盖家具组装指导、动植物识别等多场景需求,是谷歌应对AI搜索赛道竞争的核心战略动作。

对着刚拆封的板式家具零件举起手机,不用逐页翻阅晦涩的安装说明书,直接对着摄像头提问“第三步怎么装”,不到1秒就能听到AI的语音指导,同时屏幕上弹出对应步骤的演示视频链接——这不是科幻电影里的场景,而是谷歌新上线的Search Live功能已经实现的体验。

目前该功能已同步登陆Android、iOS端的Google应用及Google Lens入口,用户无需额外下载插件,打开功能后即可通过摄像头实时捕捉物理场景,配合语音指令完成搜索。
作为功能的核心支撑,Gemini 3.1 Flash Live原生适配音视频多模态输入,将单轮交互的响应延迟压缩至300毫秒以内,对话自然度较上一代模型提升47%,彻底解决了此前图像搜索需要上传、等待匹配的痛点,真正实现了物理世界与数字信息流的无缝对接。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创