少找工具,多做创作

疑似GPT-5.4信息泄露:200万上下文+状态化AI搅动AI圈

近日,OpenAI一名工程师不慎在GitHub Codex代码仓库泄露了未发布的GPT-5.4型号信息,引发技术圈广泛关注。尽管OpenAI迅速将版本修正为GPT-5.3-codex,但多方分析认为这并非简单失误,该型号曝光的200万Tokens超长上下文、状态化AI特性,或将终结AI的“金鱼记忆”,预示大模型领域即将迎来重大突破。

2026年3月2日,GitHub上的Codex代码仓库突然掀起躁动——一位OpenAI工程师提交的代码更新中,意外出现了从未对外公布的“gpt-5.4”型号标识。这一细节迅速被开发者捕捉,引发了一场关于未发布大模型的“赛博考古”。

OpenAI的反应瞬时且果断:通过强制推送覆盖相关代码,对外宣称实际型号为“gpt-5.3-codex”,将事件定性为“命名失误”。但这一解释并未平息争议,不少技术从业者指出,泄露的代码片段包含远超现有Codex版本的参数配置,绝非简单的命名混淆能解释,更像是一次半公开的技术信号,暗示大模型领域即将迎来代际升级。

从泄露的alpha模型端点截图和代码分析来看,GPT-5.4的核心特性直击当前大模型的痛点:200万Tokens超长上下文窗口状态化AI机制

当前主流大模型的上下文窗口普遍在10万Tokens以内,AI在处理长文档、多轮对话时极易遗忘前置信息,被调侃为“金鱼记忆”。而200万Tokens的容量,相当于能容纳近150万字的中文文本,足以一次性处理整本书籍、大型项目全量代码或长篇法律文书,彻底打破长文本处理的瓶颈。

更具革命性的是状态化AI的引入。与现有大模型每次对话都需重新输入背景信息不同,状态化AI能在长期任务或多轮协作中持续保留“记忆状态”,无需用户反复提醒前置条件。这意味着AI将从“单次对话助手”升级为“长期协作伙伴”,适配企业智能顾问、科研项目跟进等需要持续上下文的场景。

GPT-5.4的潜在突破,将给整个大模型行业带来连锁反应。目前,Anthropic、DeepSeek等厂商均在发力超长上下文模型,但最高参数仍停留在100万Tokens级别。OpenAI若率先推出200万上下文+状态化AI的模型,将再次拉开与竞争对手的技术差距。

这一进展也将倒逼行业加速迭代方向:从单纯的参数竞赛,转向上下文窗口扩展、状态管理优化等更具实用性的技术领域。对于企业用户而言,大模型的“记忆短板”被补齐后,AI在代码开发、内容创作、科研分析等场景的落地效率将大幅提升,催生更多深度应用场景。

关于此次泄露事件,业内存在两种截然不同的解读。一种观点认为,这确实是工程师的操作失误——在测试多个新版本时,误将未发布的型号写入公开仓库。另一种声音则认为,这是OpenAI有意为之的“烟雾弹”:通过提前泄露部分信息,试探市场反应与竞争对手的动向,同时维持自身在大模型领域的关注度。

无论真相如何,有一点可以确定:OpenAI在大模型的上下文与状态化技术上已经取得关键突破,此次泄露的信息,或许就是其下一次重大更新的“预告信号”。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯