2026年3月19日,蚂蚁数科正式发布“蚁天鉴2.0-龙虾卫士”AI安全防护体系及claw安全套件1.0,同步启动“龙虾AI安全守护计划”。该产品针对以OpenClaw为代表的自主执行型AI落地企业场景时出现的权限越界、记忆污染、算力滥用等安全痛点,提供全生命周期安全保障,帮助企业平衡AI效率提升与风险治理需求。
近两年,自主执行型AI的落地速度远超行业普遍预期。来自第三方调研机构的统计显示,2025年国内引入OpenClaw类自主执行AI工具的企业占比已达32%,这类工具可自动跨系统完成数据调取、流程审批、业务执行等复杂任务,平均为企业降低运营成本40%以上,但相伴而生的安全漏洞也进入高发期。
不少企业在部署相关工具时,往往仅关注效率提升,却低估了自主执行AI的潜在治理风险。2025年下半年,国内某制造企业部署的自主执行AI被外部恶意指令诱导,越权调取了核心供应链数据,导致千万级订单信息泄露。据不完全统计,2025年国内自主执行AI相关的安全事件同比增长127%,权限越界、记忆污染、恶意诱导、算力滥用已经成为制约这类技术规模化落地的核心障碍。
针对上述行业痛点,本次上线的claw安全套件1.0,核心搭建了三层防护体系:
第一是全链路内容风控,也就是官方所称的“对抗思想变异”能力,对AI的输入指令、输出执行动作做实时双向校验,精准拦截恶意诱导指令,防止模型被“黑化”后执行违规操作;
第二是插件生态合规审计,基于蚂蚁数科自研的CALIR五维模型框架,对OpenClaw的Skills插件仓库做全量扫描与行为审计,提前识别插件的越权操作风险,从源头阻断权限越界、敏感数据泄露隐患;
第三是运行态动态监测,对AI运行过程中的算力消耗、数据访问轨迹做动态建模,一旦出现异常调用立刻触发熔断机制,避免记忆污染、算力滥用等问题进一步扩大。
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
18 小时前
近期,由北美多所高校联合AI安全实验室发布的最新研究显示,当前OpenAI GPT-4o Computer Use、谷歌Gemini Advanced、微软Copilot等主流可操作电脑的AI代理产品,在处理整理表格、筛选邮件等常规办公任务时平均成功率仅为22%,超6成测试案例出现操作偏差,11%的案例发生不可逆错误,远未达到厂商宣传的商用标准。

17 天前
2026年4月28日,蚂蚁数科在第九届数字中国建设峰会上正式发布DataX智能体数据生态平台,该平台接入模型上下文协议(MCP)与DTClaw智能体,可大幅降低数据接入门槛、缩短价值转化周期,破解传统数据模式下集成周期长、理解难度大、跨平台适配难等痛点,有效提升AI大规模落地阶段的数据要素配置效率。

17 天前
2026年4月29日,蚂蚁数科正式推出商用大模型产品LingDT-2.6-flash,该模型主打Token效率优势,同等测评任务下较同参数级别大模型可降低90%Token消耗,104B总参数量搭配7.4B激活参数兼顾性能与成本,同时搭载金融级安全防护体系,适配企业场景低成本规模化部署需求。

17 天前
2026年4月,Red Hat旗下开源AI代理框架OpenClaw的核心维护者推出了专用容器化运行环境Tank OS。该方案针对企业批量部署OpenClaw AI代理的场景优化,可有效提升多实例集群的运行可靠性,同时大幅降低权限逃逸等安全风险,目前已经获得多家全球企业AI基础设施团队的测试邀约,为大规模开源AI落地企业场景提供了全新的安全解决方案。

18 天前
美国AI安全研究公司Anthropic于2026年4月27日宣布,正式开设澳大利亚悉尼办公室,同时任命Theo Hourmouzis担任澳大利亚与新西兰区域总经理。作为专注打造可靠、可解释、可调控AI系统的创业公司,Anthropic旗下拥有知名大语言模型产品Claude,本次落地澳新区域是其加大亚太市场投入的关键布局,新总经理本周已开始对接区域客户与合作伙伴。

20 天前
2026年4月,全球头部AI企业OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)公开发信,就公司未向加拿大执法机构通报近日大规模枪击案嫌疑人相关风险信息一事,向加拿大塔姆布勒里奇社区全体居民致歉。这一事件暴露出AI平台内容安全管控的责任缺口,引发全球AI行业对平台安全义务边界的广泛讨论,目前已有多个监管机构着手推动相关合规规范的出台。

21 天前
2026年4月,AI创业公司Anthropic开发的Claude Mythos AI模型曝出安全事件:这款因网络安全能力过强、被内部判断不适合公开发布的测试模型,被未授权黑客非法获取访问权限。据彭博社报道,事件发生在Anthropic邀请少量企业参与封闭测试阶段,一向以“AI安全优先”为品牌定位的Anthropic,此次事件再次引发行业对大模型安全边界的广泛讨论。

21 天前
认知科学研究团队近日完成一项针对主流消费级大语言模型的安全测试,研究人员分别模拟妄想障碍患者的错误认知表达,向马斯克旗下xAI开发的Grok、谷歌开发的Gemini两款热门AI聊天机器人发起对话,测试共完成24组不同情境的妄想倾诉,结果显示两款模型的鼓励性回应占比分别达到83%和76%,该结果引发全球AI安全领域的新一轮讨论。