新春流量峰值下 字节豆包临时暂停APP通话功能

2 小时前 AI快讯 1

新春流量峰值下 字节豆包临时暂停APP通话功能

2月16日下午,字节跳动旗下AI产品豆包APP的AI实时通话功能突然暂停,页面显示“新春人数较多,暂不支持此功能”。这一调整距离豆包启动“豆包过年”新春活动仅过去6天,此前平台刚刚在央视春晚期间推出红包与AI科技礼包互动,用户规模的集中爆发显然超出了当前算力的承载阈值,也暴露了AI服务在突发流量下的运维挑战。

具体来看,此次功能暂停仅针对实时通话模块,豆包的文本对话、AI生成等核心服务仍可正常使用。不少用户反馈,原本计划通过豆包的AI通话功能进行趣味拜年或语音交互,如今只能暂时回归传统文本模式。

回溯本次事件的前置背景,2月10日豆包正式开启“豆包过年”新春专项活动,除了发放常规现金红包,还对外承诺送出10万份接入豆包大模型的科技产品,涵盖AI音箱、智能机器人等品类。更为关键的是,豆包成为央视春晚的互动合作AI产品,在除夕直播期间同步开启第二轮红包与礼包抽奖,这一流量入口直接推动豆包的日活用户数在短时间内出现跳涨。据第三方数据平台估算,春晚互动期间豆包的用户访问量较节前增长超300%,峰值时段的并发请求数突破历史纪录。

业内人士指出,AI实时通话功能的算力消耗远高于文本交互——单路实时语音对话需要持续的语音识别、语义理解、语音合成及低延迟传输,对云端算力的并行处理能力要求极高。当用户数在短时间内呈几何级增长时,算力资源会被迅速耗尽,若强行维持所有功能,可能导致整个平台服务崩溃,反而影响更多用户的核心体验。因此,优先关停非核心的高算力消耗功能,是AI厂商应对流量峰值的常规应急策略。

事实上,类似的流量压力并非豆包独有。此前OpenAI的ChatGPT在节假日、重大事件节点也曾多次出现排队等待、部分高级功能受限的情况;国内百度文心一言、阿里通义千问等产品在流量高峰时,也采取过限流或功能优先级调整的措施。这背后反映的是当前AI基础设施的一个普遍痛点:虽然头部厂商都在持续加大算力投入,但面对突发的、场景化的流量爆发,算力的弹性调度能力仍存在优化空间。

从字节跳动的算力布局来看,其近年来在AI芯片采购、数据中心建设上的投入不菲,但春节期间的用户互动需求具有极强的时效性和集中性,平台的流量预估模型可能未能完全覆盖春晚带来的增量用户规模。此次临时关停通话功能,既是对当前算力负载的自我保护,也给行业提了个醒:随着AI应用逐步渗透到节日拜年、日常陪伴等生活化场景,用户对AI交互的形式要求将越来越多元,如何在保障体验的同时控制算力成本,成为AI厂商必须攻克的长期课题。

目前豆包方面尚未公布通话功能恢复的具体时间,不过从以往经验来看,当新春流量高峰褪去后,该功能大概率会在短期内重新开放。而本次事件也让市场意识到,AI产品的普及不仅考验大模型的技术能力,更考验厂商在算力调度、流量预估等运维层面的综合实力——这些“看不见的功夫”,正在成为决定AI产品用户体验的关键因素。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创