登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

省Token设计留隐患 Claude Code被曝首个高危代码执行漏洞

2026年4月7日,安全研究机构Adversa AI发布公告称,在Anthropic旗下AI编程助手Claude Code此前意外泄露的源代码中,发现首个高危代码执行漏洞:当工具处理超过50条子命令的复合命令时,会自动绕过所有内置安全过滤规则,第51条及之后的恶意代码可静默执行,攻击者可通过构造恶意开源仓库诱导开发者操作完成攻击。

AI生成配图图源: 图像由AI生成

Adversa AI在漏洞报告中披露了完整的复现流程:研究人员构造了一串由51条子命令拼接而成的复合指令,前50条均为安装依赖、拉取代码等正常操作,第51条则写入了清除本地磁盘的高危指令`rm -rf /*`,将这串指令输入Claude Code后,系统完全没有触发安全告警,直接执行了全部命令。

作为Anthropic旗下增长最快的AI编程工具,Claude Code原本内置了完善的命令安全校验机制,默认禁止执行curl、rm等可能造成数据泄露或系统损坏的高危指令。而此次漏洞的根源,是研发团队**为降低推理阶段的Token消耗,给命令审查环节设置了最高50条的截断规则**,超过阈值的子命令会直接跳过校验进入执行环节,相当于主动给恶意代码开了“绿灯”。

目前官方披露的可行攻击路径已得到验证:攻击者只需在开源仓库中植入带有长复合命令的CLAUDE.md文件,诱导使用Claude Code的开发者拉取仓库并执行AI推荐的操作,即可在用户无感知的情况下执行恶意代码,窃取本地密钥、销毁代码库等攻击均可轻松实现。

此次Claude Code的漏洞并非个例,而是当前AI生产力工具普遍存在的安全问题的缩影。随着大模型应用的规模化落地,厂商的算力成本压力持续上涨,不少团队都会通过上下文截断、低秩推理、跳过非核心校验等方式压缩Token消耗,而安全环节往往是最先被“优化”的部分。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创