简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 一天烧掉120万亿Token,字节震惊全球

一天烧掉120万亿Token,字节震惊全球

文章来源: 阿尔法工场 于 2026-04-03 23:04:00 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

刚刚,火山引擎公布了一个数字:

豆包大模型日均Token使用量已突破120万亿。

放眼全球,120万亿/日都是一个是非常极端的Token量。

在Token即生产力的今天,这个数字到底意味着什么?

120万亿Token是什么量级?

先来对比几组公开数据:

豆包(字节):120万亿Token/日(2026年3月);

OpenAI:API平台每分钟60亿Token,折算约8.64万亿/日(仅API,不含ChatGPT订阅全量);

Google:Gemini处理Token达1300万亿/月,折算下来约43万亿/日(2025年10月);

微软:2025财年Q3单季度超100万亿Token,单月最高50万亿,粗算约合1.7万亿/日。

尽管各家口径不同,但量级清晰可见:

全球能把Token日均吞吐做到百万亿级别的,屈指可数。

换算成更直观的工程指标:120万亿Token/日,相当于每秒并发处理13.9亿Token。

这已经不是实验室的压力测试,而是真实生产环境的持续负载。

这意味着字节正在经历超大规模AI平台的运营验证。

过去外界谈大模型,更多比较的是参数、榜单、体验。

但是当Token消耗量达到120万亿/日这种量级时,大家关注的重心就变成了平台的基础设施能力,如何把这么多Token持续、稳定、低成本地跑出来?

这里面考验的是推理吞吐、时延控制、任务调度、成本优化、故障隔离、高峰期的稳定性等各种能力。

某种程度上,字节已经把AI推到了“Token工厂”的量级。

谁能持续承接海量Token,谁就更有机会在下一轮AI竞争里掌握供给能力、结算能力和平台地位。

谁在燃烧120万亿Token?

还有一组数据,也很有冲击力。

豆包大模型日均Token使用量,最近三个月翻了1倍,两年时间里更是暴增1000倍。

这种爆炸式的增长动力从何而来?

火山引擎总裁谭待表示,近期豆包大模型使用量高速增长,核心驱动因素是AI视频创作的爆发与AI智能体的加速普及。

其中,视频生成是最容易理解的一类重负载。

Seedance 2.0在2月发布后迅速走红,字节也把它作为近期重点能力推向市场。

公开资料显示,Seedance 2.0生成15秒视频大约需要30.888万Token,而生成10秒 1080p视频需消耗约为35万Token。

这和普通文本问答完全不是一个量级:后者一次可能只消耗几百到几千Token,而前者一次任务就是几十万Token。

目前,一部AI漫剧作品的Token消耗可达上亿。

只要视频生成需求开始大规模起量,它就足以迅速推高整个平台的Token总量。

智能体带来的变化更隐蔽,但同样重要。

普通聊天是一轮输入、一轮输出,但智能体要经过任务拆解、工具调用、上下文读取、结果校验、失败重试等多个步骤。

一个Agent任务背后,往往对应的是一串模型调用,而不是一次问答。

所以,智能体普及带来的不是用户数简单增加,而是单次任务Token消耗强度的大幅上升。

尽管字节未披露豆包大模型的Token结构拆分,但可以推测的是,其Token结构正在变化。

过去,豆包大模型既有豆包 App、抖音、剪映、今日头条等字节内部产品场景,也包括企业、开发者等外部商业API调用。

但现在,新增量越来越多地来自更重的场景,高消耗、高工作流的企业级场景,正在快速上升。

未来Token的走向

这也符合行业内正在形成的一个共识:企业级、重任务的场景将更快地推动Token的增长。

OpenAI在2025年底发布的企业报告提到,已有9000多家组织累计处理超过100亿 Token,其中接近200家超过1万亿Token;

更重要的是,单个组织的推理Token消耗在过去12个月里增长了大约320倍。

这不是普通的聊天对话,而是企业把模型嵌入代码、分析、工作流和复杂业务流程后的结果。

今年3月黄仁勋更是直接指出,Agentic AI消耗的Token,可能是一次普通生成式提示的100万倍。

这也意味着,企业侧的工作流、视频生成、Agent执行等,会把AI变成真正意义上的Token机器。

还有一个变化会进一步放大这个趋势。

Gartner预测,到2030年,运行一个1万亿参数模型的推理成本,相比2025年会下降90%以上;同时,2030年的大模型将比2022年同等级模型实现最高100倍的成本效率提升。

这预示着未来几年,单个Token更便宜,但总Token会更多。

对企业来说,原本今天因为太贵而不值得跑的任务,到了几年后可能就会变成日常操作。

如果企业侧Token真的迎来指数级爆发,那么能承接超大规模负载的AI基础平台将成为抢手资源。

而一个长期承接海量Token的平台,通常也更有动力去优化单位成本、推理效率和资源调度。

对企业客户而言,这也意味着未来可能获得更便宜、更稳、更适合大规模部署的模型服务。

字节提前验证的,正是这种平台能力。

押注Token工厂

如果只看2026年当下,豆包大模型120万亿Token/日或许是一个极端数字。

但如果把时间轴拉长到未来3-5年,这个数字的意义会发生变化。

IDC预测,2030年全球Agent达22.16亿个,年Token消耗152,667PetaTokens(15亿亿Token,粗算约4110万亿Token/日),较2025年增长3亿倍。

今天的120万亿Token/日,更像是预演未来。

而企业级用户更应该看清这个信号弹:当AI从辅助工具变成生产基础设施,企业选型逻辑必须改变。

面对未来的AI战略,企业应该尽早考虑四个问题:

稳定性能否保障?

火山引擎今天证明的是大规模承载能力,但这种能力能否进一步转化为金融级的确定性,仍是另一个问题。

技术迁移成本高吗?

Agent、视频生成、多模态理解逻辑,一旦嵌入业务流程,就是数字资产。但资产流动性取决于平台开放性。如果深度绑定字节生态,企业需要考虑未来迁移成本多高。

预算会不会失控?

Seedance生成一条广告片,迭代50次,消耗数千万Token。Agent处理复杂工作流,单次推理十万起步。

企业更多需要考虑Token消耗熔断机制、预留实例折扣、混合云弹性等。

ROI可衡量吗?

目前还没有每万亿Token节省多少人力的行业Benchmark。企业必须自建标尺,比如同样任务,不同厂商的Token效率对比;或者推动从按Token计费转向按效果计费。

对企业侧用户而言,选择AI基础设施,就是押注自己的AI未来。

今天豆包120万亿Token拿到了入场券,但这个数字既可能成为字节未来AI平台的护城河,也可能只是高额的AI投入成本。

竞赛才刚刚开始。

企业在押注之前,需看清Token工厂的真正成色。

  • 北美最大中英文保健网“母亲节特大酬宾”!美国专利[骨精华][心血通][益脑灵]健骨強心护脑,用过的都说好!
查看评论(2)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

华人父女家中身亡 剑桥博士女儿去世时仅重24公斤
疑似美军机搜救跳伞飞行员画面曝光 营救或已失败
美军“黑鹰”直升机搜救时疑被击中 另一战机坠毁
县委书记爆红 6秒闭幕发言只为让孩子早点休息
06年“张雪追车”当事记者易军:每次回看视频会哭




24小时讨论排行

耗光国库?特朗普政府寻求明年国防开支11万亿
伊朗开始招募12岁儿童“保卫家园”,手持武器巡逻
油价上涨 民众叫苦 美议员:可以再找一份工作
俄罗斯发动大规模袭击,并提出“停止热战”条件
英国绕开美国和40多国讨论开放霍尔木兹海峡,可行吗?
半个娱乐圈都在为它道歉,谁该负责?
最新快讯!敏昂莱高票当选缅甸新任总统
小米发布新SU7,逼急特斯拉?
为什么中国人比俄国人更怀念苏联?
金正恩与女儿视察宠物商店等,与猫狗现场互动
模拟夺岛作战,五角大楼发布美军两栖突击训练照片
重庆“没给一个子儿”,为何诞生了创业天才张雪?
赫格塞斯撤换陆军参谋长,开始新一轮军方高层清洗
被“养废”的985山东姑娘,不想上桌
人类重返月球,大家关心的却是一个坏掉的马桶
张雪的“疯”,是对这个考编求稳时代的最大纠偏
文学城新闻
切换到网页版

一天烧掉120万亿Token,字节震惊全球

阿尔法工场 2026-04-03 23:04:00

刚刚,火山引擎公布了一个数字:

豆包大模型日均Token使用量已突破120万亿。

放眼全球,120万亿/日都是一个是非常极端的Token量。

在Token即生产力的今天,这个数字到底意味着什么?

120万亿Token是什么量级?

先来对比几组公开数据:

豆包(字节):120万亿Token/日(2026年3月);

OpenAI:API平台每分钟60亿Token,折算约8.64万亿/日(仅API,不含ChatGPT订阅全量);

Google:Gemini处理Token达1300万亿/月,折算下来约43万亿/日(2025年10月);

微软:2025财年Q3单季度超100万亿Token,单月最高50万亿,粗算约合1.7万亿/日。

尽管各家口径不同,但量级清晰可见:

全球能把Token日均吞吐做到百万亿级别的,屈指可数。

换算成更直观的工程指标:120万亿Token/日,相当于每秒并发处理13.9亿Token。

这已经不是实验室的压力测试,而是真实生产环境的持续负载。

这意味着字节正在经历超大规模AI平台的运营验证。

过去外界谈大模型,更多比较的是参数、榜单、体验。

但是当Token消耗量达到120万亿/日这种量级时,大家关注的重心就变成了平台的基础设施能力,如何把这么多Token持续、稳定、低成本地跑出来?

这里面考验的是推理吞吐、时延控制、任务调度、成本优化、故障隔离、高峰期的稳定性等各种能力。

某种程度上,字节已经把AI推到了“Token工厂”的量级。

谁能持续承接海量Token,谁就更有机会在下一轮AI竞争里掌握供给能力、结算能力和平台地位。

谁在燃烧120万亿Token?

还有一组数据,也很有冲击力。

豆包大模型日均Token使用量,最近三个月翻了1倍,两年时间里更是暴增1000倍。

这种爆炸式的增长动力从何而来?

火山引擎总裁谭待表示,近期豆包大模型使用量高速增长,核心驱动因素是AI视频创作的爆发与AI智能体的加速普及。

其中,视频生成是最容易理解的一类重负载。

Seedance 2.0在2月发布后迅速走红,字节也把它作为近期重点能力推向市场。

公开资料显示,Seedance 2.0生成15秒视频大约需要30.888万Token,而生成10秒 1080p视频需消耗约为35万Token。

这和普通文本问答完全不是一个量级:后者一次可能只消耗几百到几千Token,而前者一次任务就是几十万Token。

目前,一部AI漫剧作品的Token消耗可达上亿。

只要视频生成需求开始大规模起量,它就足以迅速推高整个平台的Token总量。

智能体带来的变化更隐蔽,但同样重要。

普通聊天是一轮输入、一轮输出,但智能体要经过任务拆解、工具调用、上下文读取、结果校验、失败重试等多个步骤。

一个Agent任务背后,往往对应的是一串模型调用,而不是一次问答。

所以,智能体普及带来的不是用户数简单增加,而是单次任务Token消耗强度的大幅上升。

尽管字节未披露豆包大模型的Token结构拆分,但可以推测的是,其Token结构正在变化。

过去,豆包大模型既有豆包 App、抖音、剪映、今日头条等字节内部产品场景,也包括企业、开发者等外部商业API调用。

但现在,新增量越来越多地来自更重的场景,高消耗、高工作流的企业级场景,正在快速上升。

未来Token的走向

这也符合行业内正在形成的一个共识:企业级、重任务的场景将更快地推动Token的增长。

OpenAI在2025年底发布的企业报告提到,已有9000多家组织累计处理超过100亿 Token,其中接近200家超过1万亿Token;

更重要的是,单个组织的推理Token消耗在过去12个月里增长了大约320倍。

这不是普通的聊天对话,而是企业把模型嵌入代码、分析、工作流和复杂业务流程后的结果。

今年3月黄仁勋更是直接指出,Agentic AI消耗的Token,可能是一次普通生成式提示的100万倍。

这也意味着,企业侧的工作流、视频生成、Agent执行等,会把AI变成真正意义上的Token机器。

还有一个变化会进一步放大这个趋势。

Gartner预测,到2030年,运行一个1万亿参数模型的推理成本,相比2025年会下降90%以上;同时,2030年的大模型将比2022年同等级模型实现最高100倍的成本效率提升。

这预示着未来几年,单个Token更便宜,但总Token会更多。

对企业来说,原本今天因为太贵而不值得跑的任务,到了几年后可能就会变成日常操作。

如果企业侧Token真的迎来指数级爆发,那么能承接超大规模负载的AI基础平台将成为抢手资源。

而一个长期承接海量Token的平台,通常也更有动力去优化单位成本、推理效率和资源调度。

对企业客户而言,这也意味着未来可能获得更便宜、更稳、更适合大规模部署的模型服务。

字节提前验证的,正是这种平台能力。

押注Token工厂

如果只看2026年当下,豆包大模型120万亿Token/日或许是一个极端数字。

但如果把时间轴拉长到未来3-5年,这个数字的意义会发生变化。

IDC预测,2030年全球Agent达22.16亿个,年Token消耗152,667PetaTokens(15亿亿Token,粗算约4110万亿Token/日),较2025年增长3亿倍。

今天的120万亿Token/日,更像是预演未来。

而企业级用户更应该看清这个信号弹:当AI从辅助工具变成生产基础设施,企业选型逻辑必须改变。

面对未来的AI战略,企业应该尽早考虑四个问题:

稳定性能否保障?

火山引擎今天证明的是大规模承载能力,但这种能力能否进一步转化为金融级的确定性,仍是另一个问题。

技术迁移成本高吗?

Agent、视频生成、多模态理解逻辑,一旦嵌入业务流程,就是数字资产。但资产流动性取决于平台开放性。如果深度绑定字节生态,企业需要考虑未来迁移成本多高。

预算会不会失控?

Seedance生成一条广告片,迭代50次,消耗数千万Token。Agent处理复杂工作流,单次推理十万起步。

企业更多需要考虑Token消耗熔断机制、预留实例折扣、混合云弹性等。

ROI可衡量吗?

目前还没有每万亿Token节省多少人力的行业Benchmark。企业必须自建标尺,比如同样任务,不同厂商的Token效率对比;或者推动从按Token计费转向按效果计费。

对企业侧用户而言,选择AI基础设施,就是押注自己的AI未来。

今天豆包120万亿Token拿到了入场券,但这个数字既可能成为字节未来AI平台的护城河,也可能只是高额的AI投入成本。

竞赛才刚刚开始。

企业在押注之前,需看清Token工厂的真正成色。