登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

谷歌为Agentic AI加装管控护栏 提升自主智能体可信任度

在谷歌举办的Cloud Next全球大会上,谷歌不仅展出了多项Agentic AI(自主智能体AI)的创新应用成果,更推出了针对这类新型AI系统的安全管控方案。目前谷歌已正式启动Agentic AI的安全护栏建设,核心目标是解决自主智能体自主决策带来的风险,让能自主完成复杂任务的Agentic AI更可控可信任,为企业大规模落地扫清合规障碍,这一动作也成为生成式AI落地的标志性方向。

Agentic AI也就是能够自主规划路径、调用工具、完成多步骤复杂任务的自主智能体,是今年全球AI赛道最热门的方向之一。今年谷歌Cloud Next大会上,谷歌展示了多款Agentic AI在企业办公、数据分析等场景的落地效果,其自动化处理能力让不少企业用户眼前一亮。

但行业热潮背后,隐藏着明显的安全与管理盲区。不同于传统大模型只能单次生成内容,Agentic AI可以自主连续决策,一旦出现目标偏差、越权访问,很可能给企业带来数据泄露、业务出错等风险,这也让很多观望的企业客户不敢大规模落地。

此次谷歌推出的管控措施,核心围绕“可管理”和“可信任”两个核心目标搭建,针对Agentic AI的特性设计了多层防护机制,填补了自主智能体领域的安全标准空白。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创