登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

主打AI安全的Anthropic未公开模型Claude Mythos遭黑客入侵

2026年4月,AI创业公司Anthropic开发的Claude Mythos AI模型曝出安全事件:这款因网络安全能力过强、被内部判断不适合公开发布的测试模型,被未授权黑客非法获取访问权限。据彭博社报道,事件发生在Anthropic邀请少量企业参与封闭测试阶段,一向以“AI安全优先”为品牌定位的Anthropic,此次事件再次引发行业对大模型安全边界的广泛讨论。

此次入侵事件最让行业意外的,是黑客得手的路径完全没有用到高端的复杂攻击技术。根据披露的信息,黑客团伙首先利用了Anthropic合作方Mercor公司此前泄露的其他模型配置信息,缩小了Claude Mythos测试节点的范围;其次,团伙中有一名成员曾以合同工身份参与Anthropic的模型评估项目,掌握了内部权限设置的逻辑;最终仅靠对访问地址的“有根据猜测”,就成功拿到了模型的访问权限。

业内人士指出,漏洞并非出在模型本身的安全设计,而是测试流程的信息管控疏漏,这是很多AI公司封闭测试阶段容易忽略的盲区。

作为近年成长最快的AI大厂之一,Anthropic从创立之初就将AI安全与对齐放在战略核心,旗下Claude系列大模型一直以安全管控能力获得企业客户青睐。而此次出事的Claude Mythos,本身就是一个特殊的“禁区级”模型:该模型针对网络攻防场景深度优化,自主挖掘系统漏洞、模拟渗透攻击的能力远胜通用大模型,Anthropic内部评估后得出结论——该模型的网络攻击能力过强,一旦公开流出可能被恶意主体利用,因此决定绝不公开发布,仅开放给极少数经过严格审核的合作方参与封闭测试。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创