少找工具,多做创作

Anthropic回应Claude Code源码泄露 承认人为失误将优化部署流程

2026年4月1日,全球头部AI实验室Anthropic核心开发者鲍里斯·切尔尼就近日引发技术圈广泛关注的Claude Code源代码泄露事件正式回应,确认本次泄露并非黑客攻击,而是产品部署环节未混淆MAP调试文件被误打包的人为失误所致,目前Anthropic已启动版权清理,后续将升级部署自动化流程降低操作风险。

本次泄露事件最早在海外开发者社区Hacker News曝光,流出的文件包很快在GitHub等代码平台扩散,不少资深代码开发者测试后确认,这份文件包含Claude Code核心推理逻辑、模块调用规则、接口加密规则等核心机密信息,几乎相当于将这款闭源代码大模型的内部架构完全“裸奔”在公众面前,相关话题24小时内的全网讨论量突破12万次。

针对外界关于“黑客攻击窃取核心资产”的猜测,鲍里斯·切尔尼在官方博客的回应中直接澄清,本次事故与外部攻击完全无关,完全是内部部署团队的操作疏漏导致。

据其披露,本次泄露的核心载体是未做混淆处理的MAP调试文件:这类文件是开发阶段用于排查代码错误的辅助文件,包含完整的源码映射关系,按照Anthropic的上线规范,生产环境的安装包必须删除并混淆所有调试文件,但本次部署时团队的校验环节出现疏漏,直接将包含MAP文件的测试包推送至了公开下载节点。

事故发生后,Anthropic的安全团队在3小时内就完成了公开节点的包替换,同时向GitHub、GitLab等所有主流代码托管平台发送了DMCA版权下架通知,截至4月1日晚,公开渠道可检索到的泄露文件已基本被清理。

鲍里斯同时坦言,本次事故暴露出Anthropic部署流程的核心短板:目前公司大模型产品的上线部署环节自动化率仅为68%,包括敏感文件校验在内的多个关键节点仍依赖人工二次核对,本次失误正是校验人员临时换班导致的遗漏。目前Anthropic已经成立了专项小组,计划在3个月内将部署流程的自动化率提升至95%以上,从根源上降低人为操作的风险。

作为仅次于OpenAI的全球第二大闭源大模型厂商,Anthropic的本次事故也给整个AI行业敲响了警钟。

此前业内对大模型安全的关注大多集中在训练数据合规、输出内容风险、算法对抗等层面,往往忽略了运维、部署等“偏后端”环节的风险。有安全专家指出,随着大模型产品的迭代速度越来越快,不少厂商为了赶上线节奏压缩运维校验流程,类似的疏漏未来很可能会频繁出现,只有把安全校验嵌入从训练到上线的全链路,才能真正避免核心资产泄露的风险。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创