登录体验完整功能(收藏、点赞、评论等) — 已累计有 8640 人加入

让AI触手可及,让应用激发潜能

疑似GPT-5.4信息泄露:200万上下文+状态化AI搅动AI圈

近日,OpenAI一名工程师不慎在GitHub Codex代码仓库泄露了未发布的GPT-5.4型号信息,引发技术圈广泛关注。尽管OpenAI迅速将版本修正为GPT-5.3-codex,但多方分析认为这并非简单失误,该型号曝光的200万Tokens超长上下文、状态化AI特性,或将终结AI的“金鱼记忆”,预示大模型领域即将迎来重大突破。

2026年3月2日,GitHub上的Codex代码仓库突然掀起躁动——一位OpenAI工程师提交的代码更新中,意外出现了从未对外公布的“gpt-5.4”型号标识。这一细节迅速被开发者捕捉,引发了一场关于未发布大模型的“赛博考古”。

OpenAI的反应瞬时且果断:通过强制推送覆盖相关代码,对外宣称实际型号为“gpt-5.3-codex”,将事件定性为“命名失误”。但这一解释并未平息争议,不少技术从业者指出,泄露的代码片段包含远超现有Codex版本的参数配置,绝非简单的命名混淆能解释,更像是一次半公开的技术信号,暗示大模型领域即将迎来代际升级。

从泄露的alpha模型端点截图和代码分析来看,GPT-5.4的核心特性直击当前大模型的痛点:200万Tokens超长上下文窗口状态化AI机制

当前主流大模型的上下文窗口普遍在10万Tokens以内,AI在处理长文档、多轮对话时极易遗忘前置信息,被调侃为“金鱼记忆”。而200万Tokens的容量,相当于能容纳近150万字的中文文本,足以一次性处理整本书籍、大型项目全量代码或长篇法律文书,彻底打破长文本处理的瓶颈。

更具革命性的是状态化AI的引入。与现有大模型每次对话都需重新输入背景信息不同,状态化AI能在长期任务或多轮协作中持续保留“记忆状态”,无需用户反复提醒前置条件。这意味着AI将从“单次对话助手”升级为“长期协作伙伴”,适配企业智能顾问、科研项目跟进等需要持续上下文的场景。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创