少找工具,多做创作

Anthropic为Claude Code新增自动模式 优化权限管控降低运行风险

AI大模型厂商Anthropic近日宣布为旗下AI编程工具Claude Code新增自动运行模式,该功能配套上线用户权限分级管控机制,可自动识别高风险代码运行操作并触发人工验证流程,测算显示可将编程任务误操作风险降低42%,大幅提升企业级用户批量处理编程、运维类自动化任务的效率与安全性。

在生成式AI编程工具渗透率快速提升的当下,安全可控性正在成为企业用户选型的核心指标。此前多家行业调研机构数据显示,近七成企业会限制AI编程工具的操作权限,避免其自动执行高危命令引发生产事故。

过去两年,GitHub Copilot、Claude Code、DeepSeek Coder等AI编程工具的普及,已经将普通开发者的编码效率提升了30%以上,但随之而来的安全问题也逐步暴露。由于多数AI编程工具的自动执行逻辑缺乏细粒度权限管控,过去一年全球范围内已经发生超过200起由AI误执行删除数据库、修改生产环境配置引发的企业运营事故,直接经济损失累计超过1.2亿美元。

不少企业为了规避风险,不得不关闭AI编程工具的自动执行功能,要求开发者逐行核对AI生成的代码,反而抵消了AI带来的效率提升。如何在释放AI自动化能力的同时控制安全风险,已经成为整个行业的共同痛点。

Anthropic本次推出的Claude Code自动模式,核心是解决AI自动执行任务的安全可控问题。此前用户使用Claude Code处理复杂任务时,需要逐步确认AI的操作指令,处理长周期任务时效率极低。

本次升级后,用户可预先为Claude Code划定操作权限边界,包括可访问的文件目录、可执行的命令类型、可调用的系统资源等,在权限范围内的操作Claude Code可自动完成,无需人工逐次确认。如果识别到涉及修改系统核心配置、删除生产数据等高风险操作,系统会自动暂停任务并触发人工审核流程,从执行链路层面规避风险。针对企业级客户,该功能还支持管理员统一配置全团队的权限规则,留存所有操作日志满足合规要求。

作为AI对齐领域的头部厂商,Anthropic本次的功能迭代也指向了生成式AI工具的下一阶段竞争方向:从单纯的能力比拼转向能力+安全的综合比拼。

此前OpenAI、谷歌等厂商已经先后为旗下的AI编程工具新增了风险预警功能,本次Anthropic的权限管控功能进一步补全了企业级应用的场景缺口。行业分析师预计,到2025年,超过80%的商用AI编程工具都会标配细粒度权限管控和风险校验功能,真正适配企业级生产环境的使用需求。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创