登录体验完整功能(收藏、点赞、评论等) — 已累计有 8630 人加入

让AI触手可及,让应用激发潜能

OpenAI联手Cerebras推出超高速实时编程模型Codex-Spark

OpenAI联手Cerebras推出超高速实时编程模型Codex-Spark

2026年2月13日,OpenAI与芯片厂商Cerebras联合发布GPT-5.3-Codex-Spark模型,这是双方深度合作的首个公开成果,专为实时编程场景量身优化。该模型依托Cerebras的晶圆级引擎实现超高速推理,突破1000tokens/s的速度瓶颈,直击AI编程中的“等待焦虑”,同时强调开发者主导的协作定位,重构AI编程的即时体验。

对每一位依赖AI辅助开发的工程师而言,“等待焦虑”早已是普遍痛点:刚在脑海中梳理完一段逻辑,输入需求后却要盯着加载动画等待AI生成代码,几秒到几十秒的空白足以打断连贯的创作思绪,甚至让之前的思路烟消云散。此前即便最先进的代码大模型,推理速度也多在几十tokens/s徘徊,AI生成代码的节奏始终跟不上开发者的思考节奏,这让AI始终停留在“辅助工具”的定位,难以真正成为开发者的“思维延伸”。

正是瞄准这一痛点,OpenAI选择与在超算算力领域独树一帜的Cerebras联手。作为大语言模型代码领域的先行者,OpenAI此前推出的Codex系列已经成为GitHub Copilot等工具的核心,但速度始终是难以突破的天花板;而Cerebras的Wafer-Scale Engine(WSE)晶圆级引擎,以其集成了上百亿晶体管的单芯片架构,在超大规模并行计算上具备传统GPU集群难以比拟的优势,为超高速推理提供了硬件基础。双方的合作,本质上是软件算法与硬件架构的深度定制,而非简单的算力堆叠。

GPT-5.3-Codex-Spark的核心竞争力,首先体现在颠覆性的速度表现上。1000tokens/s的推理速度意味着什么?按代码领域的平均密度计算,相当于每秒能生成近百行有效代码片段——当开发者输入“实现一个基于Redis的分布式缓存工具类”,AI几乎在需求输入完成的同时,就会开始返回第一行代码,整个生成过程完全贴合开发者的思考节奏,不会出现任何思路断层。某头部互联网公司资深技术总监在体验后坦言:“之前用AI写代码时,每次等待都要切换思路处理其他琐事,现在实时生成让开发流程完全连贯,预估能提升30%以上的原型开发效率。”

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创