OpenAI为ChatGPT企业版新增锁定模式 强化提示注入防御

8 小时前 AI快讯 1

OpenAI为ChatGPT企业版新增锁定模式 强化提示注入防御

随着AI系统在企业场景中承担的任务日益复杂,提示注入攻击等新型安全威胁正持续升级。2月13日,OpenAI正式为ChatGPT企业版推出两项核心安全升级——锁定模式与统一风险警示
所谓提示注入攻击,是指攻击者通过构造恶意提示词——有时甚至是隐藏在文本、代码或网页内容中的隐形指令——误导AI系统偏离预设任务逻辑,执行恶意操作。比如在企业场景中,若ChatGPT被配置为连接内部客户关系管理(CRM)系统,攻击者可能通过向AI提交包含隐藏注入指令的客户查询,诱导其导出客户联系方式、交易记录等敏感数据。这类攻击无需复杂技术手段,却能精准突破AI的信任边界,已成为企业级AI应用的头号安全威胁之一。

近年来,随着ChatGPT等大模型在企业端的渗透率持续提升,越来越多组织开始将AI与内部数据库、代码仓库、第三方业务工具等深度绑定,让AI承担合同审核、代码生成、客户需求分析等核心任务。但交互场景的多元化也意味着安全风险点的指数级增长。据国际AI安全研究机构2025年的统计报告,针对企业级AI系统的提示注入攻击案例较上一年增长192%,其中近六成攻击导致了不同程度的内部数据泄露,给企业带来平均超200万美元的损失。

正是在这一背景下,OpenAI推出的锁定模式成为本次升级的核心。该模式通过底层权限限制,直接切断ChatGPT与外部系统的非授权交互:不仅会禁用网页浏览、第三方插件等高风险工具,还会严格管控AI对企业内部资源的访问范围,确保ChatGPT仅在管理员预设的安全框架内运行,从根源上避免恶意提示诱导AI跨边界获取敏感数据。

与此同时,OpenAI还为所有高风险功能新增了统一风险警示标签。无论是代码解释器、文件上传还是外部API调用功能,都会在界面上显示清晰的风险等级与警示说明,比如标注“此功能可能导致敏感代码或文档泄露”,让企业用户在启用前就能直观评估潜在威胁,结合自身安全策略做出选择。不同于此前零散的风险提示,本次统一标签采用标准化的视觉设计与描述话术,大幅降低了企业管理员的安全排查成本。

国内某头部AI安全厂商首席研究员指出,提示注入攻击的防御难点在于AI对用户输入的“信任优先级”——通常情况下,AI会优先执行最新的用户提示,哪怕它与预设任务冲突。锁定模式相当于给企业级ChatGPT加上了“刚性护栏”,限制了AI的操作自由度,但也从交互入口堵住了攻击路径;而统一风险标签则是把安全判断的主动权交还给用户,两者形成“被动拦截+主动防控”的双重防线,能有效覆盖多数企业场景的安全需求。

对金融、医疗、科技等敏感数据密集型行业而言,这些新功能的价值尤为突出。比如在银行场景中,工作人员可借助锁定模式下的ChatGPT处理客户咨询、生成合规报告,无需担心AI被诱导泄露客户账户信息;在科技企业,开发团队使用带风险标签的代码解释器时,能提前警惕代码泄露风险,兼顾AI效率与代码安全。

从行业格局来看,此次OpenAI的安全升级也将推动企业级AI服务的安全标准提升。目前,谷歌Gemini Advanced、Anthropic Claude 3等竞品均已推出针对企业客户的安全功能,但多集中在数据加密、访问控制层面,针对提示注入攻击的专项防御仍处于起步阶段。OpenAI此次的锁定模式与风险
随着AI与企业业务的融合不断加深,安全已不再是可选配置,而是企业选择AI服务的核心考量因素。OpenAI此次为ChatGPT企业版打造的安全升级,不仅是对当下提示注入攻击的直接回应,也为未来AI安全机制的精细化发展提供了参考方向。接下来,如何在安全管控与AI功能灵活性之间找到平衡,将成为所有AI厂商与企业组织共同探索的课题。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创