最近,一个数据火了。
2月9日—2月15日这周,中国人工智能大模型以4.12万亿Token的调用量,首次超过同期美国模型的2.94万亿Token。
什么是Token?和大模型又有什么关系?
Token中文可译为“词元”,是AI理解人类语言的最小单位。好比教婴儿说话,不会一开始就教他读整篇文章,而是拆成一个个句子,再把句子拆成字、词。AI理解人类语言,也需要把句子段落先“打碎”。通常来说,一个汉字≈1个Token;一个英文单词≈1至2个Token;标点符号也算Token。比如“今天天气很好。”这句话,可以被AI拆分成“今”/“天”/“天”/“气”/“很”/“好”/“。”共约7个Token。
用个更直观的类比,AI大模型就像给人类做饭的厨师,人类的提问是食材,回答是菜品,但是他有个规矩:只能一盘一盘把食材往后厨里运,做好了菜也只能一盘一盘端出来。
当前的大模型,一次能处理文字量是有限的,比如用户输入一段话,模型生成一段回答,两者加起来不能超过一定数量的Token。有些AI工具会按照使用的Token数量收费,就像打电话按分钟计费一样,输入输出的文字量越多,收费就越高。
“Token调用量”的本质是真实使用量,背后反映的是AI大模型在真实场景中的渗透深度、应用的频率和广度。中国AI大模型被实际使用的文字处理量,首度超过了美国模型,这是一个很有分量的信号,意味着国产大模型正受到越来越多的认可,被全球各地用户高频使用。2月16日—2月22日,中国大模型调用量达 5.16 万亿Token,美国则为2.7万亿Token,也是进一步的佐证。
背后的原因是什么?一方面,我国有着超大规模市场优势和丰富应用场景,持续为人工智能大模型技术迭代提供“试验场”。截至2025年6月,我国生成式人工智能用户规模达5.15亿人,较2024年12月增长2.66亿人。用户基数快速扩大,带动AI从互联网领域加速向办公协同、工业设计等更深层场景延伸,让AI从“技术尝鲜”变成“日常工具”;应用渗透率不断提升,也为模型迭代持续提供数据反馈,提升处理复杂任务的能力,为未来发展打开空间。
另一方面,从算力基础设施到开源生态、从高校科研到企业创新协同发力,我国创新体系不断完善。当前,我国人工智能企业数量超过6000家,2025年核心产业规模预计突破1.2万亿元。厂商持续降低调用成本,在扩大用户群的同时,也为创新生态注入更多活力。
可以预见,在技术突破和应用场景双向驱动下,我国人工智能大模型将在“好用”向“常用”的这条路上持续迈进,为科技创新与产业创新深度融合打开更广阔空间,也为全球人工智能发展贡献更多中国智慧。





京公网安备 11011402013531号