登录体验完整功能(收藏、点赞、评论等) — 已累计有 8613 人加入

让AI触手可及,让应用激发潜能

OpenAI升级Codex与Sora计费系统 告别“强制拉闸”窘境

OpenAI升级Codex与Sora计费系统 告别“强制拉闸”窘境

近日,OpenAI针对旗下代码大模型Codex和文本生成视频模型Sora推出全新计费引擎,彻底打破了传统AI服务计费的“一刀切”困境。当用户触发速率限制时,可通过消耗信用点数继续访问服务,避免了此前达到限制就直接中断的“强制拉闸”问题。新系统整合实时使用跟踪、速率限制与信用余额管理模块,在保证计费全透明的同时,兼顾了用户探索需求与服务稳定性,为AI服务计费模式提供了新范式。

作为OpenAI旗下两款核心AI工具,Codex与Sora的用户群体覆盖了全球数百万开发者、内容创作者以及企业团队。Codex是GitHub Copilot的技术核心,凭借强大的代码补全、生成能力,成为开发者提升效率的刚需工具;Sora则以生成时长最长60分钟、细节逼真的视频内容著称,是内容创作领域的热门AI助手。但在此前的计费模式下,两款工具的用户都面临着相同的痛点:传统计费系统要么采用速率限制模式,当用户在单位时间内的调用量达到上限时,服务会直接中断,用户只能等待限制重置;要么是纯按量计费模式,从用户发出的第一个请求token就开始计费,试错成本极高,不利于用户探索复杂功能。

比如一位资深前端开发者的经历颇具代表性:此前他用Codex调试一个复杂的React组件,在生成关键代码片段时触发速率限制,服务突然中断,不仅丢失了临时的代码思路,还浪费了近20分钟的调试时间;而一位短视频创作者则表示,用Sora生成3分钟的剧情视频时,往往在生成到2分钟左右就被“强制拉闸”,需要重新提交请求,重复消耗算力成本却无法保证成果连贯性。

OpenAI此次推出的全新计费引擎,正是瞄准这些用户痛点进行的底层重构。据了解,新系统将速率限制、实时使用跟踪和信用点数余额三个核心模块整合进同一计算模型,实现了服务访问与计费的动态协同。当用户的调用量接近速率限制阈值时,系统会提前发出可视化提醒;一旦触发限制,用户无需手动操作,系统将自动启用信用点数抵扣机制,让服务继续运行,直至信用点数耗尽或用户主动终止。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创