少找工具,多做创作

现象级开源AI智能体OpenClaw爆火 国安部出台安全使用指引

2026年3月,凭借可自主执行任务的核心优势,开源AI智能体工具OpenClaw(昵称“龙虾”)成为国内现象级AI产品,民间兴起“养龙虾”使用热潮。因该工具区别于传统大模型的高权限属性带来原生安全风险,国家安全部近日正式发布《“龙虾”安全养殖手册》,提醒广大用户理性辨别功能边界、规范使用这款具备全链路执行能力的新型AI工具。

过去两个多月,几乎所有国内AI爱好者的社交账号信息流里,都能刷到“养龙虾攻略”的相关内容:有人用它自动整理上百份行业研报提炼核心观点,有人靠它同步打理三个社交平台的私信回复,甚至有人给它开通了办公软件权限,让它自主完成每周的绩效报表填报。

和传统仅能生成文本、提供决策建议的大模型不同,OpenClaw本质上是一款搭载了大模型能力的AI智能体,核心优势在于打通了“方案生成-指令执行-结果反馈”的全链路,不需要人类手动完成中间环节。

其能力特性主要覆盖四个维度:一是自主执行能力,可直接调用聊天软件、系统工具完成指令,而非停留在问答交互层面;二是完善的插件生态,覆盖文件管理、邮件撰写、网页浏览等数十种办公、生活场景;三是长期记忆模块,可自主学习用户的行为偏好、使用习惯,输出结果更贴合个性化需求;四是定时触发功能,支持用户提前下达指令,实现“夜间提交需求、晨间获取成果”的异步操作。

爆火的同时,OpenClaw的高权限属性也引发了监管层面的关注。由于不少用户为了最大化使用效率,会向OpenClaw开放本地文件、办公系统甚至支付账户的访问权限,一旦工具本身出现漏洞、或者第三方插件被植入恶意代码,很容易造成敏感数据泄露、资产损失等问题。

国家安全部此次发布的安全指引,正是针对目前用户使用过程中暴露的四大核心风险:权限过度授予、非官方插件携带病毒、敏感数据未脱敏上传、违规指令执行,逐条给出了可落地的操作规范,相当于给所有“养龙虾”的用户提供了一份官方安全操作指南。

此次安全指引的发布,也被业内视为AI智能体赛道监管的标志性信号。不同于以往针对生成式AI内容的监管要求,此次针对具备自主执行能力的AI智能体出台使用规范,意味着监管层正在跟进AI技术的迭代速度,建立更有针对性的合规体系。

有AI行业分析师指出,未来2-3年具备自主执行能力的AI智能体将会进入大规模落地阶段,在提高生产效率的同时,明确其功能边界、建立分层分级的权限管控机制,将会是技术普及的必要前提,也是整个行业健康发展的基础。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创