少找工具,多做创作

Anthropic官宣修复后仍存隐患 Claude Code遭新型逃逸攻击

近期Anthropic源代码泄露事件中,安全研究者发现针对其旗下代码大模型Claude Code的新型prompt逃逸攻击路径,可绕过内容安全审查执行违规操作,而该类漏洞此前Anthropic公开表示已完成修复。目前该漏洞可导致代码生成环节出现恶意植入、数据泄露等风险,Anthropic尚未就新漏洞给出官方回应。

本次发现的漏洞攻击手段并不复杂:研究者仅需要在正常代码需求前后插入三段从泄露源代码中提取的、未对外公开的系统提示词片段,即可让Claude Code完全忽略内置的安全规则,甚至生成带有远程后门的应用代码片段。

2024年3月,Anthropic曾发布公开公告,称已完成所有已知Claude系列模型prompt逃逸漏洞的修复,其中Claude Code作为面向企业客户推出的专属代码生成模型,更是主打合规生成、知识产权风险筛查两大核心安全能力,上线后快速拿下了多家科技企业的采购订单。

本次泄露的源代码中包含Anthropic内部未公开的安全测试用例,安全研究人员顺着测试样本的思路调整攻击逻辑后发现,Anthropic此前的修复仅封堵了公开曝光的12种攻击路径,并未从底层对齐逻辑上解决漏洞,只要调整提示词的插入位置和表述方式,即可轻松绕过安全过滤规则。目前Anthropic内部安全团队已经确认收到漏洞上报,尚未面向用户发布预警公告。

随着生成式AI的普及,已有超过68%的开发者日常会使用AI工具生成代码,随之而来的安全风险也快速增长。云安全联盟2024年上半年发布的报告显示,代码大模型相关安全事件同比上涨132%,其中70%以上的事件都与prompt逃逸攻击相关。

目前多数大模型厂商的安全修复都采用“黑名单”模式,仅对已经曝光的攻击关键词和格式进行封堵,面对新的攻击变体时普遍存在防护盲区。本次Claude Code的漏洞事件也凸显出,主打“安全合规”的大模型产品,其实际防护能力仍存在较多可被利用的空间。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创