当前位置: 首页 » 资讯 » 新科技 » 正文

Tokens经济,站上“火山口”

IP属地 中国·北京 光子星球 时间:2025-12-20 12:11:22

撰文| 郝 鑫

编辑| 王 潘

在大模型领域,Tokens是衡量文本处理与计算成本的核心计量单位。

行业发展通常遵循从概念验证到规模化应用的路径,因此,在一段时间内,Tokens消耗量被视为衡量大模型行业进展与市场活跃度的关键指标。

火山引擎总裁谭待在“2025年冬季FORCE原动力大会”现场表示,模型只有在被调用的时候才能发挥价值,所以越有价值的模型调用次数就越多。

最新数据显示,截止到今年12月,豆包大模型日均调用数已超过50万亿,自发布至今已经实现了417倍增长。这一数据,仅次于OpenAI和Google。

但如果仅把目光停留在消耗总量,把Tokens视作消耗算力的成本单位,就很容易忽视大模型发展中“质”的问题。

某行业人士透露,在Tokens规模成为行业指标的背景下,部分公司通过调整统计口径等方式,使得调用量数据大幅提升,存在一定“水分”。此外,不少Tokens消耗实际来自免费试用或简单搜索场景,真实商业转化有限,整体呈现出“虚胖”态势。

与此不同,火山引擎在关注Tokens调用规模的同时,更强调其背后的“含金量”——即Tokens是否真正用在了企业核心业务场景、是否带来实际价值。

谭待表示,2025年已有超过100万家企业和个人通过火山引擎使用大模型服务,覆盖百余行业。


其中,Tokens消耗超万亿的客户已超过百家,这些高价值客户主要来自互联网、智能制造、消费电子、汽车等产业。其Tokens消耗多集中于产品研发、生产流程优化、客户服务升级等深度业务环节,真正推动了大模型技术与产业需求的紧密结合。

因此,火山引擎所关注的不仅是“用了多少”,更是“用在何处、产生何效”,这背后离不开火山引擎上下对Tokens的精准认知。体现在行动上,火山引擎也是国内最早把Tokens作为业务落地考核指标的云厂商。

为什么Tokens调用量在AI时代如此重要?火山引擎作为云计算市场的后来者,为什么能以Tokens的调用量为支点,迅速覆盖千行百业,率先完成Tokens价值转化?

Tokens经济时代

大模型技术催生了对“智能”的新需求,常常表现为对通用认知能力规模化、服务化的调用。

对外输出大模型能力依赖于强大的云计算架构,但这种新兴的“智能交付”逻辑,与传统的“资源交付”逻辑存在着矛盾。

传统由IaaS、PaaS、SaaS组成的分层解耦云架构中,本质是将物理资源虚拟化、服务化后进行分层交付。用户购买的是容量和时长,量化为消耗多少算力,至于用这些能力能做什么,云厂商并不关心。

有人认为,这种以资源为驱动的架构,与智能的逻辑背道而驰,在AI时代反而会阻碍AI应用的创新速度。因此,以火山引擎为代表的厂商,提出了“AI云原生架构”的概念。

AI云原生架构的颠覆在于,其核心设计目标是为了高效、大规模地生产和消费“智能”。

按照火山引擎的理解,新架构中,模型是软件的核心,MaaS是使用模型的最佳方式,算力以Tokens的方式转换为智能;同时围绕Agent开发和Agent运营,云平台和中间件进一步把Tokens组装成Agents,并实现Agent和现有工作流、Agent和Agent之间的智能互通。

类比工业时代以“千瓦时”度量电力消耗,互联网时代以“GB”计算数据流量,AI云原生以Tokens作为最小单位来衡量智能规模,具有自然的延续性与合理性。这意味着,无论底层用了多少算力、多复杂的模型,最终用户获得的价值可直观地量化为“处理了多少Tokens”。

在这样的思考下,火山引擎升级了AI云原生全栈服务:在MaaS服务上,推出企业自有模型的推理代工服务、强化学习平台;面向Agent开发,发布企业级AI Agent平台AgentKit;面向Agent运营,发布HiAgent“1+N+X”智能体工作站,推动Agent大规模落地。


火山引擎在市场早期,便灵敏地识别出Tokens是连接模型、客户与商业化的通用度量衡。先一步认识到,云计算的商业模式将从出租算力转变为售卖智能能力,Tokens消耗量直接对应其核心收入。

基于此,火山引擎将竞争的焦点转移到了:谁能提供更强大、更便宜的模型?如何以更低的算力成本生成更多Tokens?以及如何客户在平台上消耗更多Tokens?

在内部,更是通过将Tokens调用量内化为考核“指挥棒”,驱动整个组织从技术、产品到销售,都围绕“如何帮助客户高效消耗更多有价值Tokens”展开,从而形成落地的闭环。

事实证明,火山引擎Tokens策略行之有效。根据IDC报告,火山引擎在中国的公有云大模型的服务调用量稳居第一,市场份额从去年的46.4%提升到今年的49.2%。也就是说,在中国公有云上每产生的两个Tokens就有一个是火山引擎。这一统计口径,指的是对外部客户提供的大模型服务调用量,不包含自有业务,更能反映出产业端的实际应用情况。


当Tokens成为大模型时代通用的度量单位后,其流动数据便具有堪比“用电量”“流量”一般的指向性意义。换而言之,Tokens流向哪里,哪里便是产业发展方向。

例如,如果流向“文生视频”模型的Tokens暴增,就表明该应用正处爆发期;如果流向“代码生成”的Tokens持续稳定,表明开发者工具已进入生产级采纳阶段;Tokens消耗在推理端比例大于训练段,则从侧面反映出行业从模型研发走向了规模化应用。

更进一步,若观察视角跳出Tokens消耗量的堆砌,而作为衡量AI真实生产力和商业渗透率的指标。那每一次的Tokens调用都对应一次实际的服务交付与价值创造,这使得Tokens的流向成为观测AI产业脉搏最直接的“心电图”。

火山“上”车

以火山引擎披露为例,Tokens大量流入到了汽车、智能终端、金融、教育、消费、游戏、泛互联网等行业。

汽车领域是近几年火山引擎着重发力的领域之一。数据显示,火山引擎助力超九成主流车企进行AI升级,大模型覆盖了从汽车云、智能座舱、企业应用、汽车出海、具身智能等全流程场景。

在此次大会中,火山引擎在AI安全领域新推出了“MaaS on AICC”的服务,其核心是让企业能够在加密环境下进行模型推理任务,提升安全指数。

上汽大众是其中一个案例,通过使用MaaS on AICC服务,对内部5万多份机密知识数据实现了安全保护。由此,上汽大众为上千家经销商,上万名销售人员提供了智能知识服务。相比私有化的部署方案,火山引擎的新方案,帮助他们节约了60%以上的成本,还降低了AI应用创新的门槛。

火山引擎所合作的企业中,既包括了宝马、奔驰、奥迪、比亚迪这类传统车企,又涵盖了特斯拉、“蔚小理”这类的新势力。豆包大模型“上车”几乎成为了每家车企的标配,在2025年新车智能座舱搭载量位居行业第一。

我们了解到,火山引擎在落地行业中逐步建立起了基础模型、C2B和场景经验迭代的优势。

首先技术的底气来自于不断迭代更新的豆包大模型能力,模型上限还在不断突破,每一次升级都有可能带来直接的体验提升。

在火山引擎内部有一个理念叫“基模的共同搭建”,即To C和To B底层共用一套基础模型。这样一来,在C端产品积累的产品经验和know how,可以直接在B端服务中去复用,以此来提升交付体验。豆包大模型“上车”速度如此之快,背后离不开在豆包AI助手上的持续打磨,相应地豆包的名气也带给了合作车企的曝光度。

火山引擎能够像“滚雪球”般地迅速覆盖行业,离不开其打造合作标杆的策略。仅在车企领域,火山引擎就与上汽荣威推出了搭载豆包深度思考模型的AI智舱,与宝马探索AI汽车营销创新,与极氪汽车打造企业级“数字洞察智能体”等。

火山引擎相关人士告诉我们,“在与车企的合作过程中,我们会积累起不同车企的用户交互体验经验和场景落地经验,最终把这些都转化为整个火山引擎的To B交付产品经验”,正是有了不断地经验迭代,才能在下一次新合作中命中客户的需求点。

To B的业务充满了复杂性,整体上时间紧、任务重,在合作中既要厘清双方的职责所在,又要在关键问题上达成一致,最后能上线一款融合双方优势的产品,难度系数远比想象中高。

上汽荣威的智能座舱是火山引擎打造的标杆型合作案例,该款车型首个搭载了“豆包深度思考模型”,双方共同定义了“带推理功能”的车端助手产品。在这个合作中,车企负责做产品体验的定义和大方向上的把控,火山引擎主要负责大模型赋能交互其中一环的体验设计。


在上汽荣威案例里面,涉及了大模型车控、大模型闲聊和大模型联网问答等诸多场景。从获得用户指令到响应需求,火山引擎把整个过程拆解为了模型的理解、推理和表达三步。用户提出指令后,模型先得理解清楚意图,然后针对用户行为作出响应,最后呈现出来的是打开音乐、设置目的地。

针对具体的场景化需求,火山引擎提出了很多自己的思考。为了满足车主的个性化需求,火山引擎针对每次固定不变的东西,设定冷启动推荐和学习记忆。用户一方面可以接受模型提出的建议,另一方面也能纠正模型,模型会记录下来用户的需求,在每次交互中不断迭代,离理解用户更近一点。

火山引擎相关人士还透露,下一代产品将会构建大模型“一对N”的关系。国内用车场景有着强烈的家庭属性,升级到“一对N”功能后,模型就能清楚地知道每个人的身份以及彼此间的关系属性。

Tokens流向千行百业

火山引擎服务客户所产生的Tokens还在不断扩大,其他行业的案例还有很多。

在智能终端领域,火山引擎已与全球Top 10手机厂商中的9家建立了深度合作关系,截至目前为止,豆包大模型已覆盖超过5亿台终端设备。

其核心逻辑在于,以豆包大模型为统一基座,为手机厂商提供模块化、可定制的AI能力菜单,而近期备受关注的“豆包手机助手”正是该能力在终端体验上的实验性产品,做出了“天花板”级示范。


合作成功的关键在于火山引擎提供的并非单一产品,而是灵活的“能力组合”。厂商可按需接入多模态模型、联网搜索插件、角色化智能体及端云协同安全方案等,从而快速打造具备AI搜索、屏幕问答、跨应用操作等特性的智能助手。例如,vivo、OPPO等品牌已基于此实现了AI意图搜索、圈选识屏、多模态交互等创新功能。

在金融行业,火山引擎提供营销、投研、信贷等智能体建设方案,已服务中信证券、国泰海通、华泰证券等八成头部券商,及招商银行、民生银行等八成系统重要性银行。

华泰证券基于豆包大模型打造了国内证券行业第一个AI原生应用——“AI涨乐”。在豆包大模型的加持下,解决了功能堆砌的问题,AI得以深度融入选股、分析、交易等核心场景中,帮助用户执行选股、盯盘、下单、提醒等一系列复杂的操作。

进一步,搭配豆包的播客模型,AI涨乐还可以根据用户兴趣和需求生成个性化对话的AI播客,让用户在通勤路上以听的方式,就能获得最新的市场信息。一套“组合拳”下来,AI涨乐不再是一个被“闲置”的应用,而是成为高粘性的投资理财工具。

对于合作,火山引擎的态度更加开放,一个典型例子就是客户不仅能选择豆包大模型,还能接入DeepSeek等开源模型。火山引擎认为,围绕客户的需求解决问题才是关键。基于此,火山引擎目前的商业模式也更多元化。

轻量化模式,就是火山引擎方提供大模型API,客户直接调用,自己来做产品包装研发,这种模式按Tokens量付费即可,比较容易计算。

第二种,如果有客户想用使用火山引擎的一些标准化产品,这里面可能就涉及一些定制费用和使用授权费用。

第三种,在一些新兴场景中,火山引擎更倾向于深度的战略合作,聚焦在双方怎么能够相互赋能,共同打磨出标杆型产品。

火山引擎曾凭借一己之力推动大模型价格进入“厘时代”,为企业降本增效的服务理念贯穿始终。去年5月份,火山引擎平台上的主流模型降价99%。今年,火山引擎首创按模型思考长度、分段计费的方式,为企业节约成本。

刚过去的发布会上,针对企业想跑更多新模型的心态,火山引擎又推出了“AI节省计划”。该计划涵盖了豆包大模型和各类三方开源模型,凡是参与的企业,各个部门都能享受统一的价格优惠,且不同模型之间用量可以互相累计。以此计算下来,最高可节省47%的使用成本。

Tokens不止,流向千行百业,火山引擎正在以开放、灵活的姿态,成为AI与产业深度融合的关键推动者。

微信号|TMTweb

公众号|光子星球

别忘了扫码关注我们!

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。