少找工具,多做创作

谷歌AI设计工具Stitch重磅更新 语音驱动落地氛围设计新模式

2026年3月19日,谷歌正式宣布旗下AI UI设计工具Stitch推出重大更新,深度集成多模态语音交互能力,支持开发者通过自然语言语音指令直接调整界面效果、自动生成对应代码,落地行业新兴的“氛围设计”概念,大幅降低UI开发技术门槛,推动UI设计从传统手动建模转向感性直观的交互模式。

对着电脑说出“将首页按钮换成柔和的雾霾蓝,再把卡片阴影的模糊度调高20%”,不需要手动调整CSS参数,也不用拖拽组件,AI就能在几秒内完成界面修改并自动生成可直接复用的代码——这不是科幻电影里的场景,而是谷歌Stitch更新后已经实现的功能。

传统UI开发流程中,设计师出原型图、标注各类参数后,前端工程师还需要对照参数反复调试,光是对齐颜色、间距、动效的沟通成本往往占整个开发周期的30%以上,非技术背景的创作者如果想落地自己的界面想法,往往要花几个月学习基础代码知识,门槛极高。

近两年行业提出的氛围设计(Vibe Design)概念,正是为了解决这一痛点:用户不需要掌握专业技术术语,只需要描述想要的视觉感受、场景氛围,AI就能自动匹配对应的技术参数,完成界面开发。

本次Stitch的更新核心就是把语音交互和氛围设计的能力深度整合。作为谷歌2025年推出的AI UI设计工具,Stitch此前已经支持文本指令生成界面,本次更新接入了谷歌Gemini多模态大模型的最新能力,语音识别准确率达98%,对“更活泼”“更有科技感”这类模糊的情感化描述,语义匹配准确率超过90%。

开发者甚至不需要坐在电脑前,只需要通过蓝牙耳机说出修改需求,就能实时看到界面调整效果,整个流程的效率比传统开发模式提升至少70%。即便是完全不懂代码的设计师,也能通过语音描述快速产出可落地的UI原型,省去了和前端团队反复对齐需求的沟通成本。

这次更新的意义不止是UI开发工具的迭代,更是整个AI编程领域向普惠化迈进的重要信号。过去低代码工具仍然要求用户掌握基础的组件逻辑、平台规则,而基于氛围设计的语音交互模式,把开发门槛降到了“会说话就能做产品”的程度。

据行业预测,到2027年,超过60%的中小团队UI开发工作将由AI工具完成,非技术背景的创作者将成为产品开发的重要参与群体,整个软件行业的生产链路将迎来新一轮重构。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创