登录体验完整功能(收藏、点赞、评论等) — 已累计有 8741 人加入

让AI触手可及,让应用激发潜能

一周两度发生重大泄露 Anthropic安全人设遭遇滑铁卢

AI企业Anthropic近期接连出现运营事故,继上周意外公开3000份内部文件后,本周又因打包配置的人为失误,导致核心编程助手产品Claude Code超过51.2万行源代码被公开泄露。此次事件与该公司此前主打“安全、审慎”的品牌定位形成强烈反差,也引发了全球AI行业对头部模型研发流程合规性的普遍讨论。

2026年4月初,全球多家代码托管平台先后出现一批标注为Claude Code 2.1.88版本的源代码文件,经开发者交叉验证,确认这批文件来自AI头部企业Anthropic。这批超过51.2万行的源代码包含了Claude Code的模型行为指令、工具调用限制逻辑、安全对齐规则等核心内容,等同于将这款明星编程助手的“技术家底”完全公之于众。

就在此次代码泄露事件发生前一周,Anthropic刚刚因为内部文档系统的权限配置错误,将3000份包含产品迭代路线、员工内部沟通记录的文件对外公开,当时公司就因流程疏漏受到外界质疑。

两次泄露均无外部攻击痕迹,纯粹是内部人员操作失误导致。Anthropic官方在事后公告中试图淡化影响,将此次事故定义为“发布包装问题”,称泄露内容不涉及用户数据,也不会影响现有产品的正常使用。

作为由前OpenAI高管创立的AI明星企业,Anthropic自成立以来就把“安全优先”作为核心卖点,不仅多次公开强调自身比同行更严谨的模型对齐流程,还在全球多个监管场合拿自身风控体系作为行业范本。短短一周内两次低级失误,让其经营多年的安全人设彻底崩塌。

作为目前市场上性能表现最好的AI编程助手之一,Claude Code此前已经拿下了近20%的全球企业级编程工具市场份额,直接威胁到OpenAI旗下GitHub Copilot的市场地位。此次核心代码泄露,相当于给全行业送了一份免费的技术参考资料。

有国内AI厂商产品负责人透露,其团队已经在组织技术人员研究泄露的代码,参考其中的多工具调用逻辑、代码生成对齐规则优化自身产品,整个编程类AI工具的技术迭代速度可能因此提前至少半年。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创