少找工具,多做创作

OpenAI发布GPT-5.4系列小型模型 速度性能双超传统大模型

2026年3月18日,人工智能企业OpenAI正式发布GPT-5.4 mini与GPT-5.4 nano两款轻量化模型。两款产品基于GPT-5.4核心能力定向优化,专为高频响应类任务打造,运行速度较前代提升2倍,在代码编写、逻辑推理、多模态理解等场景表现优于传统大模型,为高频AI应用提供了更高性价比的落地方案。

做前端开发的陈阳最近明显感觉到,自己常用的代码编辑器AI补全工具响应速度快了不少——以往输入半行代码要等1-2秒才会弹出推荐结果,现在几乎是实时生成,准确率反而比之前更高。这背后正是OpenAI最新上线的小型模型带来的体验升级。

随着AI应用从尝鲜转向常态化落地,全参数大模型的高成本、高延迟短板逐渐凸显。第三方统计数据显示,2025年全球AI调用请求中,62%属于代码补全、智能客服应答、短文本理解等高频轻量任务,这类任务不需要大模型的全量能力,反而对响应速度、调用成本有更高要求。

此前OpenAI已经凭借GPT-3.5 mini占据了全球轻量化模型近40%的市场份额,此次推出的两款新模型,正是瞄准了高速增长的高频任务场景,补全了GPT-5.4产品线的低算力区间布局。

据OpenAI官方披露的技术细节,GPT-5.4 mini与nano均保留了GPT-5.4的核心架构能力,通过知识蒸馏、稀疏化训练等技术实现了参数规模的大幅压缩。其中GPT-5.4 mini的运行速度较前代产品提升2倍,在代码精准编辑、代码库导航、前端页面生成等专业场景的表现,甚至超过了不少参数规模是其5倍以上的传统大模型。

在多模态场景下,两款模型也能快速解析密集的图文输入,完成报表识别、商品图内容提取等任务,响应延迟不到0.3秒。而参数更小的GPT-5.4 nano则主打端侧部署能力,无需云端调用即可完成本地的语音识别、图片解析、短文本生成等任务,同时能保障用户数据不离开本地设备,适合智能硬件、企业内部敏感场景的使用需求。

OpenAI方面透露,两款新模型的调用成本仅为全量GPT-5.4的1/10,目前已经开放API调用权限,预计未来半年会接入微软Copilot、GitHub Copilot等全系生态产品。

业内人士认为,此次GPT-5.4系列小模型的发布,进一步拉高了轻量化模型的性能门槛。目前包括Anthropic、DeepSeek、字节跳动在内的多家厂商都在布局同类型产品,2026年小模型赛道的竞争将围绕性能、成本、端侧适配能力展开,普通用户也将享受到更流畅、更低成本的AI服务。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创