少找工具,多做创作

消息称OpenAI将推GPT-5.4:超百万Token上下文,新增极限推理能力

据科技媒体The Information爆料,OpenAI计划推出新一代大语言模型GPT-5.4,其上下文窗口容量将突破100万Tokens,较前代GPT-5.2的40万Tokens实现翻倍式提升。此外,GPT-5.4新增“极限推理模式”,可针对复杂问题分配更多计算资源,进一步强化模型推理能力,旨在缩小与谷歌、Anthropic竞品的上下文能力差距。

在大语言模型的赛道上,上下文窗口的容量早已成为核心竞争力之一。此前,谷歌、Anthropic等竞品均已推出支持百万级Tokens上下文的模型,而OpenAI的GPT-5.2仅支持40万Tokens,在处理长篇文档、多轮深度对话等场景中略显受限。

此次GPT-5.4将上下文窗口直接推至100万Tokens以上,意味着模型可一次性处理长达数百万字的书籍、完整的代码库或企业级数据报告,无需分段输入或多次调用API。这一升级将极大简化开发者的工作流程,也为金融、法律、科研等对长文本处理有高需求的行业打开了更多应用空间。

除了上下文窗口的大幅扩容,GPT-5.4最引人注目的是新增的“极限推理模式”。不同于传统大模型平均分配计算资源的逻辑,这一模式下,模型会自动识别问题的复杂度——从基础的问答到高难度的数学证明、逻辑推演、复杂代码调试,针对不同难度的任务动态调配计算时间与资源。

例如,在面对需要多步骤推导的物理难题或涉及多变量的金融建模时,GPT-5.4会投入更多算力进行深度思考,而非快速给出可能存在误差的答案。这一设计直指当前大语言模型在复杂推理场景中的痛点,有望显著提升模型在专业领域的实用价值。

GPT-5.4的迭代方向,折射出当前大模型行业的两大发展趋势:一是上下文窗口的持续扩容,二是推理能力的精准强化。随着企业用户对AI工具的需求从“能用”转向“好用”,单纯的参数堆砌已无法满足市场期待,如何在性能与成本之间找到平衡,成为各大厂商的核心课题。

对于OpenAI而言,GPT-5.4不仅是追赶竞品上下文能力的关键一步,更是通过推理模式创新巩固技术壁垒的尝试。未来,大模型的竞争或许将不再局限于“谁的窗口更大”,而是转向“谁能更高效地解决复杂问题”,这也将推动整个行业向更务实的技术优化方向发展。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯