Fast Reading
■ 月之暗面发布了新一代模型Kimi K2 Thinking。与之同时引发热议的,不仅是它在数学推理、代码理解上的进步,还有它背后的一个数字——460万美元的训练成本。
■ 在估值5000亿美元的“AI独角兽之王”OpenAI面前,粮草弹药薄弱的中国初创公司要想突围,“硬刚”显然不现实,只能另辟蹊径、弯道超车。
■ 月之暗面正代表一种新型的AI力量——它不一定最豪华,却可能最高效;不一定拥有最多资源,却更懂得如何让资源发挥最大价值。
![]()
10月的最后一个工作日,雪豹财经社拜访了月之暗面的北京办公室。我们注意到,月之暗面的会议室都以乐队命名:Pink Floyd、The Rolling Stone、Queen、The Beatles、Radiohead......
阿里有“光明顶”,百度有“昆仑”,它们讲秩序与修炼;月之暗面却更像一支正在排练的乐队,崇尚自由、创新和反叛。摇滚乐在诞生之初,就是一种“低投入门槛”的音乐:它不需要复杂的录音室或昂贵的乐器,一把破吉他、一套架子鼓就能表达强大的力量。
就在那次拜访后一周,11月6日,月之暗面发布了新一代模型“Kimi K2 Thinking”。与之同时引发热议的,不仅是它在数学推理、代码理解上的进步,还有它背后的一个数字——460万美元的训练成本。
在一个大型AI模型动辄要花几千万美元、几亿算力小时的时代,这个数字显得几乎不真实。但它确实发生了——而且,类似的故事正在中国反复上演,它们共同指向一个事实:中国的AI产业正在进入一个高效期:模型越来越强,但花的钱越来越少。
问题是,这意味着什么?
“中国效率”再次震撼硅谷
CNBC一则有关KimiK2 Thinking训练成本的报道,犹如巨石投入水面,业界一片哗然。
460万美元,还不到GPT-4训练成本的8%,甚至比DeepSeek披露的V3训练成本(租赁价,正式训练阶段)560万美元还要低。
而在性能上,Kimi K2 Thinking在Humanity‘s Last Exam、BrowseComp等部分权威基准测试中,取得了媲美甚至超越GPT-5和Claude 4.5等顶级模型的表现。
长期以来,在人们的印象中,AI能力与天价资本支出之间似乎已形成了线性关系:更强大的模型,理应对应着更庞大的投入。
但Kimi K2和DeepSeek的出现都打破了这个逻辑,重建了一套新的叙事,彻底颠覆了传统认知。
虽然此后月之暗面创始团队出面回应:“这不是官方数据。训练成本很难计算,因为其中很大一部分用于研究和实验。”但在巨大的成本差异面前,这个解释并没有稀释业界的惊叹。
Hugging Face联合创始人Thomas Wolf 甚至发出灵魂拷问:“我们是否每隔几个月就要经历一次‘DeepSeek 时刻’?”
与之形成鲜明对比的是,今年8月,OpenAI首席执行官山姆・奥尔特曼(SamAltman)表示,未来公司将投入数万亿美元夯实AI基建,用于支持各项人工智能服务。而就在Kimi K2发布后两天,甲骨文一笔高达180亿美元的数据中心融资交易的消息公布。
两相对比,海外媒体开始反思中美两国在AI基础设施投入和发展模式的差异。
CNBC预计,到2027年,美国将在数据中心上投入近7000亿美元,而相比之下,中国的主要玩家,包括阿里巴巴、腾讯、字节跳动和百度,合计预期投入不到800亿美元。也就是说,资本支出差距高达10:1,但系统性能却基本相当。
当美国玩家在通过私人信贷和债券市场为庞大的数据中心融资时,中国同行正在靠效率取胜——使用更便宜的芯片、开源模型,以及需要更少资本投入的精简基础设施。
据一家国际媒体估算,Kimi K2 Thinking的API价格比OpenAI和Anthropic的同类模型便宜6到10倍,可能对企业的采用模式造成冲击。
Thomas Wolf表示,Kimi K2 Thinking发布后,已成为该平台上最受开发者欢迎的模型。
进一步的质疑在于,AI领域的游戏规则是否正在被改写?
Interconnected Capital 创始人兼首席投资官Kevin Xu在接受CNBC采访时表示,此前,人工智能领域几乎所有的事情都是由硬件主导的,这就是为什么OpenAI、Anthropic能够做它们所做的事情。但DeepSeek的进化提供了在中国发展人工智能的另一种方式,即软件主导。
如今,从DeepSeek、阿里巴巴的通义大模型,再到Kimi K2 Thinking,中国的大模型,正在通过开源策略和极致的成本效率,改变人工智能领域的竞争态势和格局。
Kimi K2 Thinking 为何“炸场”?
Kimi K2 Thinking之所以大受欢迎,原因很简单:更聪明,但价格更低。
以每百万Token的API调用成本来对比,K2 Thinking的输入和输出成本分别为0.15和2.5美元 ,GPT-5分别为1.25和10美元。
市场的认知已经被重塑:最实用的模型≠最贵的模型。
在过去很长一段时间,资金算力决定论是美国模式主导下的叙事逻辑。OpenAI、Anthropic、Google DeepMind们争相掀起大模型“军备竞赛”,但钱烧得越来越快,模型进步却越来越慢。据美国投行摩根士丹利的估算,训练GPT-4的成本超过6000万美元。
而在中国,我们看到的恰好相反:Kimi用几十分之一的成本,达到了接近GPT的能力。
估值5000亿美元的“AI独角兽之王”OpenA,技术团队规模几千人,其中大部分是高薪挖来的专家,已部署超过10 万块NVIDIA H100 GPU,接下来还有1万亿美元的算力扩张计划。而月之暗面估值33亿美元,不及前者的1%,技术团队只有200余人。
在这场完全不对等的对决面前,粮草弹药薄弱的中国初创公司要想突破OpenAI们的铜墙铁壁,“硬刚”显然不现实,只能另辟蹊径、弯道超车。
Kimi现阶段的重点是:“充分压榨每一张卡”,通过架构优化和成本控制换取最佳性能。
从烧钱竞赛转向效率竞赛,这并非“中国效率”第一次给硅谷带来“亿点点”小小的震撼。
自去年年底DeepSeek R1横空出世,在大幅降低推理成本的达到了与o1并肩的表现,国产大模型多次贡献令人惊喜的表现。Qwen跻身Hugging Face模型下载榜单的Top 10,智谱(Z.ai)的GLM系列模型、MiniMax等也颇受海外用户关注。
换句话说,中国AI创新在资源限制中不断涌现。
“小米加步枪”的突围逻辑
如果说 2022 年 ChatGPT 的发布标志着“AI 启蒙”,那么进入2025年,中国AI在有限资源下涌现出的创新,用有限的算力榨出的极限性能,一次次向世界展示了中国团队的技术实力。
AI创新不仅是算力竞赛,也是效率竞争;AI的竞争不仅是“有多少钱”,也是“怎么用好每一分钱”。
Kimi和DeepSeek的崛起,让全球观察者重新审视一个老问题:为什么那些没有宠大资金支撑的中国团队,能在AI领域接连跑出黑马?
答案或许可以概括为三点:技术哲学、资源禀赋、算法策略。
美国的大模型往往带着“科研理想主义”的浪漫色彩——先设想一个理想系统,再投入海量资源去逼近。而中国的团队更像是“工程现实主义者”——现有资源下的最优解是什么。
DeepSeek 在去年引入了被称为“稀疏激活”的技术,即模型在推理时并非激活所有神经元,而是根据任务动态选择部分网络参与,从而将推理成本压缩至原来的几分之一。
Kimi K2模型第一次在超大规模的模型上采用了全新一代的优化器,实现了2倍左右的效率提升。
11月5日,就在Kimi K2 Thinking发布的前一天,英伟达CEO黄仁勋在一场闭门会中断言:“中国将赢下这场人工智能的全球竞赛”。
重估中国AI基模的三重逻辑
是时候给月之暗面们重新估值了。因为,资本市场正在慢慢意识到:AI公司的真正壁垒,或许不再是参数规模,而是单位算力产出价值(Compute Efficiency)。
对月之暗面们的价值重估至少有三重逻辑:
第一重,从“资本密集型”转向“智力密集型”。不到500万美元训练出能与GPT-4相抗的模型,意味着这家公司拥有一种新型技术杠杆,能在低成本条件下保持高速创新。这种能力本身就是资本市场最稀缺的资产——即高ROI的研发能力。
第二重,成本结构可复制,商业化可预期。与那些动辄上亿美元的模型不同,Kimi的成本意味着它的更新频率更高、风险更可控。这让月之暗面具备了可持续迭代的模型。有点类似于服装行业为应对快速变化的市场需求而建立的柔性生产体系。
第三重,战略位置:处于中国AI生态的关键节点。中国的AI产业正处在“算力去中心化”的关键阶段。以阿里、字节为代表的巨头,以Deepseek、月之暗面为代表的模型公司,正在形成一条从底层框架到应用的“内生循环”。DeepSeek和Kimi的出现,不仅补全了“高性价比模型”这一生态空白,也成为中国AI产业全球化的新样板。它证明了,不依赖巨额算力投入,也能在技术上正面对标国际顶级模型。
过去三年,AI 竞争的关键词是“大”:参数更大、语料更大、训练集群更大。
但接下来,它会变成另一种逻辑:谁能以最少的资源,创造出最强的智能。
未来的AI竞争将不再是“硬件战争”,而是四个维度的综合较量:数据效率——谁能用更少的数据训练出更通用的模型;算法创新——谁能让模型学得更快、想得更深;推理成本——谁能让AI的使用成本降到人人可负担;场景融合——谁能最快把AI变成真实生产力。
中国的机会正在于此:在硬件上虽有短板,但在成本结构、产业整合、场景落地上具备极强的实践能力。
而像月之暗面这样的公司,正代表着这种新型AI力量——它不一定最豪华,却可能最高效;不一定拥有最多资源,却更懂得如何让资源发挥最大价值。
在这一新的周期里,决定胜负的不只是谁拥有更多芯片,还有谁能用有限的芯片做出最聪明的模型和应用。
DeepSeek和 Kimi的几百万美元,也许不仅是一笔训练预算的数字,更是中国人在限制中也能持续创新的生动注脚。
作者 | 陈序宁
编辑 | 黄运涛
封面kimi官网
End





京公网安备 11011402013531号