登录体验完整功能(收藏、点赞、评论等)

省Token设计留隐患 Claude Code被曝首个高危代码执行漏洞

2026年4月7日,安全研究机构Adversa AI发布公告称,在Anthropic旗下AI编程助手Claude Code此前意外泄露的源代码中,发现首个高危代码执行漏洞:当工具处理超过50条子命令的复合命令时,会自动绕过所有内置安全过滤规则,第51条及之后的恶意代码可静默执行,攻击者可通过构造恶意开源仓库诱导开发者操作完成攻击。

AI生成配图图源: 图像由AI生成

Adversa AI在漏洞报告中披露了完整的复现流程:研究人员构造了一串由51条子命令拼接而成的复合指令,前50条均为安装依赖、拉取代码等正常操作,第51条则写入了清除本地磁盘的高危指令`rm -rf /*`,将这串指令输入Claude Code后,系统完全没有触发安全告警,直接执行了全部命令。

作为Anthropic旗下增长最快的AI编程工具,Claude Code原本内置了完善的命令安全校验机制,默认禁止执行curl、rm等可能造成数据泄露或系统损坏的高危指令。而此次漏洞的根源,是研发团队**为降低推理阶段的Token消耗,给命令审查环节设置了最高50条的截断规则**,超过阈值的子命令会直接跳过校验进入执行环节,相当于主动给恶意代码开了“绿灯”。

目前官方披露的可行攻击路径已得到验证:攻击者只需在开源仓库中植入带有长复合命令的CLAUDE.md文件,诱导使用Claude Code的开发者拉取仓库并执行AI推荐的操作,即可在用户无感知的情况下执行恶意代码,窃取本地密钥、销毁代码库等攻击均可轻松实现。

此次Claude Code的漏洞并非个例,而是当前AI生产力工具普遍存在的安全问题的缩影。随着大模型应用的规模化落地,厂商的算力成本压力持续上涨,不少团队都会通过上下文截断、低秩推理、跳过非核心校验等方式压缩Token消耗,而安全环节往往是最先被“优化”的部分。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创