当前位置: 首页 » 资讯 » 新金融 » 正文

字节跳动,正在变成“Token跳动”

IP属地 中国·北京 中国企业家杂志 时间:2025-12-26 00:11:48



像卖流量一样卖Token,字节的新生意经。

文|《中国企业家》记者 闫俊文

编辑|何伊凡见习编辑|李原

头图来源|视觉中国

字节跳动紧紧抓住了AI时代的流量——Token(词元),就像计算机时代的存储单位Byte(字节)一样。也让Token调用量多寡,成为衡量大模型竞争力、企业需求、商业化落地的重要指标。

字节跳动旗下火山引擎披露,截至2025年12月,豆包大模型日均Token调用量已经超过50万亿,半年内增长200%,比去年同期增长了10倍,在全球仅次于OpenAI和Google。

火山引擎总裁谭待提及,不同于云计算时代的IaaS、PaaS以及SaaS架构,在AI云原生架构中,模型是软件的核心。大模型能力的持续提升,会解锁新场景,带动Token使用量增长。虽然目前火山引擎的Token消耗有相当比例来自于字节的“内循环”,但累计使用上万亿Token的外部客户已超过100家。


火山引擎的AI云原生架构 摄影:闫俊文

模型的技术处理能力是Token消耗的基础。12月18日,火山引擎发布豆包大模型1.8,该模型面向多模态Agent场景进行了定向优化。

Token的消耗大战,也让字节更激进地在算力和资本开支上布局。12月23日,《金融时报》报道,字节计划在2026年豪掷1600亿元加码AI,其中一半预算将用于采购AI芯片——这大概相当于字节2025年净利润的四分之一

在应用端,字节也在极速拉升竞争水位。12月24日,数据显示:豆包App的DAU(日活用户)已突破1亿大关。同时,豆包的用户增长、市场推广费用,也是字节历史上所有破亿DAU产品中花费最低的。

近日据《晚点LatePost》报道,火山引擎将成为2026年中央广播电视总台春节联欢晚会独家AI云合作伙伴,豆包App也将配合上线多种互动玩法。可以想见,国内AI行业的竞争格局或将很快面临新一轮改写。

卖Token,字节拼了

字节Token消耗的快速增长,除了模型能力,很大程度上也倚仗于“钞能力”之下,字节不惜代价地抢占市场。

金沙江创投董事总经理朱啸虎在接受采访时称,现在一个100万DAU的产品每天就可以消耗几百亿Token,这个量级很容易做到,增长很快。

2025年下半年以来,火山引擎开启了“甩卖”模式,AI硬件、AI玩具等高Token消耗产品,均是火山瞄准的重点销售对象。

一位AI英语学习硬件公司员工告诉《中国企业家》,公司的硬件产品售价200多元。此前,他们曾花数百万元买了5台服务器做本地适配,发现算不过来账。后来发现他们只需要付给火山引擎几十元,用户就可以永久调用火山引擎的云端大模型。

据他估算,一个火山引擎用户一年算力资源成本至少要50~80元。“但现在火山算力资源利用不饱和,只能打折便宜卖给硬件厂商。”

当被问到为什么不选择阿里云呢?上述人士说:“阿里云产品太多,接口也太多,不如火山简单。”

另一家AI玩具厂商员工向《中国企业家》透露,用户买完硬件之后,虽然可以永久免费调用大模型,但用户不可能一天24小时对话。实际调用Token累积可能不过几天时间,调用总量很低,这也让云厂商有利可图。

为了支持AI玩具和各类AI硬件,火山引擎基于新推出的豆包大模型1.8系列模型,也推出了玩具AI框架、音频AI框架等开发套件,授权收费形式分为三个月、一年与终身使用不限量。

2025年6月,接入豆包大模型的AIoT产品数量是100万台。半年之后,该数据已经增长至600万台。

但火山引擎智能算法负责人吴迪透露,他在内部经常跟团队说,不要把2025年定义为AIoT元年,2026年、2027年可能也不是爆发元年,但每一年都比前一年更加重要、机会更大。比如一个台灯搭配云端豆包大模型,成本不到100元,但附加值可能会超过专业的课外辅导老师。

在to C端的领先优势,也被字节不断向云端反哺。豆包已经是中国用户量最高的AI原生应用,根据QuestMobile数据:2025年第三季度,豆包的月活跃用户数为1.72亿,超过了DeepSeek等对手。

《中国企业家》注意到,最近,字节跳动正将豆包App的能力以“豆包助手API”形式开放给各大开发者和硬件厂商。目前,该API已经开放了日常沟通、联网搜索等功能,未来还将陆续推出拍照识图、实时翻译等。


视觉中国

从成本侧看,豆包助手API调用价格高于火山引擎的Token消耗价格。其采取“后付费”模式,日常沟通0.1元/次,联网搜索0.2元/次,边想边搜0.5元/次,0.5元的单次调用价格已接近豆包大模型百万Token的输入价格。

一位相关人士解释称:“卖Token是卖水,但豆包助手API相当于卖饮料,无需企业从零搭建。”豆包助手API打出的口号是“亿级用户验证效果,企业快速享受稳定、高效的智能服务”。

字节跳动不放过小机会、赚小钱的同时,它亦瞄准大机会。豆包手机最近在市场上掀起轩然大波,也让字节对手机这个用户量最大硬件载体的野心昭然若揭。

2025年12月1日,豆包发布豆包手机助手,在中兴nubia M153系列手机上,豆包手机助手获得了操作系统层面的高权限,通过GUI(图形用户界面)手段,完成了跨平台比价、点外卖等任务,但很快遭到了微信、淘宝等超级App的“拉黑”狙击。

但字节并未停下脚步。12月19日,媒体披露,字节跳动正在推进与vivo、联想、传音等硬件厂商开展AI手机的合作,为其设备预装插件,从而获得用户入口。

最大机会在企业端

关于火山引擎每天Token调用量超过50万亿,谭待在接受媒体采访时表示:企业占了Token调用的80%,个人占20%。而此前云时代,企业和个人用量占比是8.5:1.5,现在AI时代可能是7.5:2.5,“未来可能个人还会再高一点”。

相较于硬件和个人,Agent落地在企业端,Token消耗数量可达数十倍甚至百倍,这也需要更长的上下文处理能力和更强的记忆能力。

火山引擎披露,有超过100家企业在火山引擎上累计Token的使用量超过了1万亿。这个数字已经可与国际对标。2025年10月,OpenAI曾披露Token调用量过万亿的30家客户(不包括要求匿名的客户),它们集中在教育、销售、Coding(编程)等场景。

随着大模型已经进入应用落地期,Token消耗成为衡量应用规模化的核心指标,已是不争事实。昆仑万维董事长方汉告诉《中国企业家》,用Token就是用大模型,程序员占整个公司员工数量三分之二,他们会考核程序员的Token调用量,“用Token少,证明不够努力”。

但Token消耗更大规模的应用,还要依赖于多模态和Agent的繁荣。而当下,企业落地Agent仍然面临挑战。谭待提及,真正能开发好Agent的企业并不多,能运营好,被大规模使用的Agent就更少了,主要挑战有两点:

第一,Agent身份与权限管理。在Agent时代,不只要管理人,还要管理Agent、工具和系统之间的关系。

第二,模型的确定性和可解释性问题。Agent为什么这么决策,失败发生在哪一步?没有合理的评估和审计,Agent也难以被企业真正信任。

此外,企业已经存在了大量业务系统、数据库、消息系统、作业系统,它们是企业的核心资产,但并不是为Agent设计的。如果这些系统不能被Agent安全、可控地调用,企业智能化就只能停留在表面。

“不是模型不够强,而是缺少为Agent规模化运行而生的基础设施。”谭待说。

为了解决上述问题,火山引擎在“FORCE原动力大会”上,一口气发布了数款企业端应用:Trae企业版,支持10万文件、1.5亿行代码的容量;升级发布企业级Agent平台Agentkit,和多模态数据湖打通。

以企业应用最广的AI Coding场景为例,在字节跳动内部,已经有超过九成的工程师在使用Trae辅助开发;以抖音生活服务为例,目前有40%以上的代码是通过AI生成。


AI生成

虽然这其中,不免有许多“重复造轮子”的资源浪费。Trae的一位员工透露,为了检查Trae的结果,“还要给它组建一个内部的知识库”。但将“Token跳动”的故事讲下去,字节已经表明了更坚定的决心。

在成本端,火山引擎推出了“AI节省计划”。该计划覆盖所有按量后付费的大模型产品,通过阶梯式折扣,帮助企业最高节省47%的成本。

火山引擎还推出了“方舟协作奖励计划”,截至2026年3月31日,参与的企业被赠送最多500万Token,个人200万Token。使用第二天,还将发送和采集量相等的有效Token数,消费多少返多少。

阿里云不在意Token吗?

当火山引擎向硬件以及企业端进发,推销自己的Token战略时,一个强劲的对手——阿里云也挡在眼前。2025年下半年开始,究竟如何衡量AI云质量,谁才是AI云厂商第一,一直是业内争论不休的话题。

一位云服务资深人士向《中国企业家》透露:目前关于AI云市场份额,各家有不同的统计口径。总体来说,阿里云在包括PaaS、IaaS、MaaS在内的整体营收规模位居第一。火山引擎的优势则主要集中在MaaS,也就是“模型即产品”市场。

该人士也同时强调,模型质量不能只用Token消耗一个标准来考量。“毕竟一个视频生成,可能就会消耗百万Token。而豆包背靠抖音,有大量的视频创作者。”

2025年9月,阿里云相关员工对《中国企业家》表示:未来Token的消耗量会体现在超长的上下文,其中引用多次工具,跟环境进行多次交互、做多轮推理的能力。“我们更多的精力会放在技术架构创新,包括跟硬件的结合上。”

比起Token调用量,阿里云更强调“有效的Token调用”。9月,阿里云推出了Qwen3-Next系列架构模型,它在20万Token以上的推理速度更快。

前述员工谈及:“今天技术上的很多创新会让Token的成本下降,但我们希望减少无效的Token量。有的模型很笨,会给你输出一大堆,但是结果很差,这是我们希望去避免的”。

但最近,在字节的凶猛攻势下,阿里云大概不能一直如此“佛系”了。

媒体报道,阿里已经着手制定让Token调用量快速提升的计划,比如大力推广C端应用。下半年,阿里先后推出AI助手千问App、灵光、AI健康产品阿福等三款应用。其中千问App公测一周,下载量已突破1000万次。

硬件也将成为未来的Token消耗大户。11月底,阿里夸克AI眼镜开售,3天销量破3000台。12月23日,钉钉上线企业级AI Agent硬件——DingTalk Real。从C端应用到B端落地,从硬件到软件,阿里与字节的Token之争已经一触即发。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。