登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

OpenAI GPT-5.5系统指令泄露 被禁无关联提及哥布林等生物

2026年4月OpenAI旗下Codex CLI代码开源,意外泄露尚未正式发布的下一代大模型GPT-5.5的底层运行规则。据Ars Technica披露,其3500余词的系统提示词中设置罕见禁令:无绝对必要关联时,严禁模型提及哥布林、巨魔等6种特定生物,该禁令重复出现2次,优先级与禁止执行破坏性命令等核心规范持平。

多数用户对大模型的系统提示词认知,还停留在“遵守法律法规”“拒绝有害请求”这类普适性规则上,但本次泄露的GPT-5.5指令集,打破了这种固有印象。

本次泄露的指令集,是OpenAI在开源其代码生成工具Codex CLI的更新版本时,被开发者意外发现嵌入的未公开模型配置文件,随后科技媒体Ars Technica对文件内容做了完整梳理。

这份长达3500多词的基础指令集中,除了常规的安全合规要求外,专门用两处重复的条款强调了特殊限制:除非用户的查询内容和相关生物存在绝对且必要的关联,否则GPT-5.5必须完全回避讨论哥布林、小精灵、浣熊、巨魔、食人魔、鸽子这6种生物。更值得关注的是,这一条款的优先级,和“禁止执行用户提出的破坏性命令”“回复中不得使用表情符号”等核心使用规范完全并列。

截至目前,OpenAI尚未对这一特殊禁令做出官方回应,相关猜测已经在AI开发者社区发酵。有安全工程师推测,这类限制大概率是对齐测试中发现漏洞后的补丁:可能此前的测试版本中,有攻击者利用上述生物的相关设定诱导模型突破安全限制,输出违规内容,因此OpenAI选择直接将相关关键词列入高风险管控范围。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创