少找工具,多做创作

一周两度发生重大泄露 Anthropic安全人设遭遇滑铁卢

AI企业Anthropic近期接连出现运营事故,继上周意外公开3000份内部文件后,本周又因打包配置的人为失误,导致核心编程助手产品Claude Code超过51.2万行源代码被公开泄露。此次事件与该公司此前主打“安全、审慎”的品牌定位形成强烈反差,也引发了全球AI行业对头部模型研发流程合规性的普遍讨论。

2026年4月初,全球多家代码托管平台先后出现一批标注为Claude Code 2.1.88版本的源代码文件,经开发者交叉验证,确认这批文件来自AI头部企业Anthropic。这批超过51.2万行的源代码包含了Claude Code的模型行为指令、工具调用限制逻辑、安全对齐规则等核心内容,等同于将这款明星编程助手的“技术家底”完全公之于众。

就在此次代码泄露事件发生前一周,Anthropic刚刚因为内部文档系统的权限配置错误,将3000份包含产品迭代路线、员工内部沟通记录的文件对外公开,当时公司就因流程疏漏受到外界质疑。

两次泄露均无外部攻击痕迹,纯粹是内部人员操作失误导致。Anthropic官方在事后公告中试图淡化影响,将此次事故定义为“发布包装问题”,称泄露内容不涉及用户数据,也不会影响现有产品的正常使用。

作为由前OpenAI高管创立的AI明星企业,Anthropic自成立以来就把“安全优先”作为核心卖点,不仅多次公开强调自身比同行更严谨的模型对齐流程,还在全球多个监管场合拿自身风控体系作为行业范本。短短一周内两次低级失误,让其经营多年的安全人设彻底崩塌。

作为目前市场上性能表现最好的AI编程助手之一,Claude Code此前已经拿下了近20%的全球企业级编程工具市场份额,直接威胁到OpenAI旗下GitHub Copilot的市场地位。此次核心代码泄露,相当于给全行业送了一份免费的技术参考资料。

有国内AI厂商产品负责人透露,其团队已经在组织技术人员研究泄露的代码,参考其中的多工具调用逻辑、代码生成对齐规则优化自身产品,整个编程类AI工具的技术迭代速度可能因此提前至少半年。

另据《华尔街日报》此前披露,OpenAI近期突然宣布暂停视频生成产品Sora的公开测试,除了内容审核压力之外,另一大核心原因就是Claude Code的迭代速度远超预期,OpenAI需要抽调更多工程资源投入到大语言模型的代码能力优化上,应对Anthropic的冲击。而此次代码泄露事件,无疑会让OpenAI的应对节奏进一步加快。

此次事件也给整个AI行业敲响了警钟。此前业内关于AI安全的讨论大多集中在模型内容对齐、用户隐私保护、生成内容合规等层面,很少关注到研发发布流程本身的安全隐患。

随着大模型产品迭代速度从原来的季度更新压缩到周更甚至日更,很多头部企业为了抢市场节奏,大幅简化了发布前的审核流程,权限管理、配置校验等环节往往被边缘化,很容易出现类似的低级失误。

AI治理领域专家指出,此次事件之后,全球监管机构很可能会出台更严格的大模型研发流程规范,要求头部企业定期披露内部风控执行情况,避免核心技术泄露或者被恶意利用。对于AI企业而言,安全不是对外宣传的口号,而是要覆盖从研发到发布全流程的硬性要求。

Anthropic,Claude Code

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创