少找工具,多做创作

字节跳动豆包大模型日均Token破120万亿 两年增千倍刷新纪录

2026年4月2日,火山引擎总裁谭待正式披露字节跳动旗下豆包大模型最新运营数据:其日均Token使用量已突破120万亿大关,近三个月用量实现翻倍,较两年前增长超1000倍,刷新国内大模型用量纪录。这一数据也印证国内AI产业已从模型研发竞赛转向规模化应用阶段,国产大模型调用量已在部分领域反超海外主流产品。

120万亿Token是什么概念?按照大模型行业通用换算标准,1Token约对应0.7个中文汉字,120万亿Token相当于单日处理84万亿字的信息,仅豆包单模型的日处理规模,已经超过全球所有传统出版行业一年的内容产出总和。

谭待披露的数据显示,豆包的用量增长曲线呈现出典型的指数级特征:过去三个月内,其Token调用量直接翻番,拉长时间线来看,相较两年前刚上线时的规模,涨幅已经达到1000倍

如此惊人的增长速度,背后是豆包在C端和B端的双线渗透:C端层面,豆包已经接入抖音、今日头条、西瓜视频等字节全系产品,为用户提供内容生成、智能搜索、辅助创作等服务;B端层面,依托火山引擎的企业服务体系,豆包的能力已经输出给电商、零售、金融等多个领域的客户,用于智能客服、商品文案生成、用户运营等场景,真实需求直接拉动了调用量的暴涨。

豆包的爆发并非个例,近期国内大模型赛道整体都呈现出调用量走高的态势。第三方监测数据显示,国产大模型的整体日均调用量已经连续一个月超越海外主流模型,在电商运营、本土内容创作、政务服务等细分场景,国产大模型的适配度已经明显优于ChatGPT等海外产品。

这一趋势也意味着国内AI行业已经走完了第一阶段的“模型竞赛”:过去两年行业普遍比拼参数规模、榜单成绩,如今市场的考核标准已经转向真实落地的调用量、用户付费率,标志着大模型正式从实验室技术变成了普惠型的生产工具。与此同时,国内AI标准化工作也在同步推进,近期Token的官方中文译名已正式确定为“词元”,后续全行业的用量、性能统计将统一口径,进一步降低跨模型对标、上下游协作的沟通成本。

单日120万亿的调用量,也对整个AI产业链提出了更高的要求。首先是算力层面的支撑,字节跳动此前已经在全国布局了多个超大规模智算中心,总算力规模超过10EFLOPS,才能够承接如此庞大的实时调用需求,后续随着调用量进一步上涨,算力储备的竞争将成为大模型厂商的核心壁垒之一。

其次是数据飞轮的形成,海量的用户真实调用数据,会反过来帮助大模型迭代优化,进一步提升回答准确率、场景适配度,形成“用量上涨-数据积累-模型优化-用量再涨”的正向循环。对于整个行业而言,大模型调用成本的下探也将成为核心议题,只有把单Token调用成本降到更低的水平,才能够覆盖更多中小客户的需求,进一步打开市场空间。

AI生成配图

(图像由AI生成)

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创