登录体验完整功能(收藏、点赞、评论等) — 已累计有 8671 人加入

让AI触手可及,让应用激发潜能

OpenAI发布GPT-5.4系列小型模型 速度性能双超传统大模型

2026年3月18日,人工智能企业OpenAI正式发布GPT-5.4 mini与GPT-5.4 nano两款轻量化模型。两款产品基于GPT-5.4核心能力定向优化,专为高频响应类任务打造,运行速度较前代提升2倍,在代码编写、逻辑推理、多模态理解等场景表现优于传统大模型,为高频AI应用提供了更高性价比的落地方案。

做前端开发的陈阳最近明显感觉到,自己常用的代码编辑器AI补全工具响应速度快了不少——以往输入半行代码要等1-2秒才会弹出推荐结果,现在几乎是实时生成,准确率反而比之前更高。这背后正是OpenAI最新上线的小型模型带来的体验升级。

随着AI应用从尝鲜转向常态化落地,全参数大模型的高成本、高延迟短板逐渐凸显。第三方统计数据显示,2025年全球AI调用请求中,62%属于代码补全、智能客服应答、短文本理解等高频轻量任务,这类任务不需要大模型的全量能力,反而对响应速度、调用成本有更高要求。

此前OpenAI已经凭借GPT-3.5 mini占据了全球轻量化模型近40%的市场份额,此次推出的两款新模型,正是瞄准了高速增长的高频任务场景,补全了GPT-5.4产品线的低算力区间布局。

据OpenAI官方披露的技术细节,GPT-5.4 mini与nano均保留了GPT-5.4的核心架构能力,通过知识蒸馏、稀疏化训练等技术实现了参数规模的大幅压缩。其中GPT-5.4 mini的运行速度较前代产品提升2倍,在代码精准编辑、代码库导航、前端页面生成等专业场景的表现,甚至超过了不少参数规模是其5倍以上的传统大模型。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创