登录体验完整功能(收藏、点赞、评论等) — 已累计有 8619 人加入

让AI触手可及,让应用激发潜能

2026春晚AI互动破19亿 豆包打造实时创作新标杆

2026春晚AI互动破19亿 豆包打造实时创作新标杆

2026年除夕,总台春晚在陪伴国人辞旧迎新的同时,完成了一次标志性的科技突破——首次引入AI驱动的全民实时创作互动。字节跳动旗下豆包成为这场互动的核心载体,当日AI互动总量突破19亿次,创下春晚历史上参与规模最大的互动纪录。这场由火山引擎提供独家算力支撑的AI狂欢,不仅为用户生成了超5000万张定制新春头像与1亿条个性化祝福,更在流量峰值时刻展现了大模型的超强性能,为传统晚会的数字化转型树立了新样本。

当全国观众围坐在电视机前欣赏春晚节目时,一场看不见的AI算力竞赛正在后台悄然上演。据字节跳动官方统计,除夕当日,“豆包过年”活动吸引了数以亿计的用户参与,累计AI互动次数达19亿次,其中超5000万用户通过豆包生成了专属新春主题头像,超1亿条由AI定制的新春祝福在社交平台上流转,成为龙年春节最具科技感的新年俗。不少用户在社交平台分享自己的AI头像,从阖家团圆的手绘风到国风仙侠的创意款,个性化的生成效果让传统年味多了几分专属记忆。

这场互动的高光时刻出现在除夕21时46分,彼时正值春晚语言类节目落幕、歌舞表演登场的间隙,用户参与热情达到顶峰。数据显示,豆包大模型迎来算力峰值,一分钟内推理吞吐量达633亿token——这意味着每秒处理超10亿个语义单元,足以支撑数百万用户同时发起AI生成请求,且响应速度保持在毫秒级。对于大模型应用而言,这样的峰值表现不仅考验算法的优化能力,更对底层算力的调度效率提出了极致要求:一旦算力调度出现延迟,用户的实时创作体验就会大打折扣,甚至引发大规模卡顿。

作为总台春晚独家AI云合作伙伴,字节跳动火山引擎为这次大规模AI互动提供了坚实的算力底座。针对春晚流量“短时间、高并发”的典型特征,火山引擎采用了弹性算力调度机制,通过云原生技术将分散的计算资源实时聚合,同时对大模型推理框架进行深度优化,将单token处理成本降低了30%以上,最终实现了全程无卡顿、无延迟的用户体验。“春晚的流量峰值相当于数十个顶级电商大促的叠加,我们提前三个月就开始进行压力测试,模拟了上百种极端场景,确保万无一失。”火山引擎相关负责人在事后透露,团队甚至针对突发的热门节目话题预设了算力储备,避免出现用户集中生成相关内容时的算力缺口。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创