OpenAI升级Codex与Sora计费系统 告别“强制拉闸”窘境

8 小时前 AI快讯 1

OpenAI升级Codex与Sora计费系统 告别“强制拉闸”窘境

近日,OpenAI针对旗下代码大模型Codex和文本生成视频模型Sora推出全新计费引擎,彻底打破了传统AI服务计费的“一刀切”困境。当用户触发速率限制时,可通过消耗信用点数继续访问服务,避免了此前达到限制就直接中断的“强制拉闸”问题。新系统整合实时使用跟踪、速率限制与信用余额管理模块,在保证计费全透明的同时,兼顾了用户探索需求与服务稳定性,为AI服务计费模式提供了新范式。

作为OpenAI旗下两款核心AI工具,Codex与Sora的用户群体覆盖了全球数百万开发者、内容创作者以及企业团队。Codex是GitHub Copilot的技术核心,凭借强大的代码补全、生成能力,成为开发者提升效率的刚需工具;Sora则以生成时长最长60分钟、细节逼真的视频内容著称,是内容创作领域的热门AI助手。但在此前的计费模式下,两款工具的用户都面临着相同的痛点:传统计费系统要么采用速率限制模式,当用户在单位时间内的调用量达到上限时,服务会直接中断,用户只能等待限制重置;要么是纯按量计费模式,从用户发出的第一个请求token就开始计费,试错成本极高,不利于用户探索复杂功能。

比如一位资深前端开发者的经历颇具代表性:此前他用Codex调试一个复杂的React组件,在生成关键代码片段时触发速率限制,服务突然中断,不仅丢失了临时的代码思路,还浪费了近20分钟的调试时间;而一位短视频创作者则表示,用Sora生成3分钟的剧情视频时,往往在生成到2分钟左右就被“强制拉闸”,需要重新提交请求,重复消耗算力成本却无法保证成果连贯性。

OpenAI此次推出的全新计费引擎,正是瞄准这些用户痛点进行的底层重构。据了解,新系统将速率限制、实时使用跟踪和信用点数余额三个核心模块整合进同一计算模型,实现了服务访问与计费的动态协同。当用户的调用量接近速率限制阈值时,系统会提前发出可视化提醒;一旦触发限制,用户无需手动操作,系统将自动启用信用点数抵扣机制,让服务继续运行,直至信用点数耗尽或用户主动终止。

同时,新系统的实时跟踪功能让计费透明度达到了新高度:用户可在管理后台实时查看当前的速率使用情况、信用余额、每一次调用的token消耗明细,甚至能通过算法预测剩余信用点数可支持的服务时长,彻底避免了“隐形消费”的可能。对于信用点数的获取,OpenAI提供了灵活途径:订阅Pro套餐的用户每月可获得固定额度的免费信用点数,企业用户则可根据需求购买定制化信用包,价格随购买量阶梯下降,进一步降低了长期使用成本。

AI产业分析师王磊认为,OpenAI此次的计费模式创新,是AI服务从“技术导向”转向“用户导向”的重要信号。“过去AI厂商更关注模型性能的提升,而忽略了商业化落地中的用户体验细节。这次的新计费系统既保障了平台的算力资源合理分配,防止个别用户过度占用资源影响全局,又通过信用点数的缓冲机制,最大化满足了用户的灵活使用需求,这将为整个AI服务行业的计费模式提供重要参考。”

从更宏观的角度看,这一调整也体现了OpenAI巩固市场地位的布局。当前全球AI服务市场竞争日趋激烈,AnthropicGoogle Gemini等竞品在模型性能上不断追赶,OpenAI通过优化计费体验、降低用户门槛,能够进一步增强用户粘性,尤其是吸引对服务连续性要求极高的企业用户,巩固其在AI商业化领域的领先优势。

随着AI技术的普及,用户对AI工具的使用频率和深度不断提升,计费模式的合理性将成为决定用户选择的关键因素之一。OpenAI此次的创新尝试,不仅解决了旗下两款核心产品的用户痛点,更可能推动整个AI服务行业的计费模式升级,让AI工具真正成为用户高效、便捷的协作伙伴。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创