![]()
“最佳销售”黄仁勋终于看到了冰山消融的可能:就在昨天,美国总统特朗普通过其社交媒体宣布,经过与中方的沟通,美国将允许芯片巨头英伟达向中国的“经过批准的客户”出口其先进的AI芯片H200。
特朗普在文章中提到,此举将为美国带来就业和制造业的增强,并提及中方将为此支付25%的额外费用。
从今年4月14日起,英伟达AI芯片被实质禁止对华销售,虽然7月份英伟达官宣获批出口许可,但并未实际向中国客户交付H20芯片。
产品难以进入中国市场,肯定是英伟达的损失,但对于国产平替们来说,这段时间却是难得的发展窗口。寒武纪股价狂涨,摩尔线程火线上市,就连老牌大厂百度,也传出了有可能将昆仑芯拆分上市的消息。
H200可能解禁,是否意味着“国产平替”们窗口的关闭呢?
至少二级市场不这么认为。
“国产平替”里最先上市的摩尔线程,其股价不但没有预想中的大幅下跌,反而在开盘后呈现小幅低开后快速翻红的走势,收盘628.31元/股,当日涨幅达5.73%,对应总市值直逼3000亿元,第二天继续上涨,收盘价达到735元,涨幅16.98%。可见市场对此并不担忧,反而视为利好。
同样国产平替阵营中,最近比较火的百度AI芯片公司昆仑芯,因为其并非上市企业,并不能直接看出英伟达解禁H200对其的影响。然而,从长期来看,由于国产替代战略的存在,以及本土芯片厂商的独特优势,李厂长再造一个“寒武纪”,没准真不是一个没法实现的梦想,而H200也很难成为这条路上的拦路虎。
A
英伟达CEO黄仁勋曾在10月公开表示,在美国实施严格的出口管制之前,英伟达的高端AI芯片在中国市场占据主导地位,市场份额超过95%。从A100到H100,这些芯片是中国各大互联网公司、科研机构训练大模型的核心引擎。
然而出口管制政策实施后,英伟达在华市场份额从95%骤降至接近0%。2025年三季度,其在华AI芯片销售额占总营收不足0.1%。昆仑芯等国产厂商开始迅速填补这个空缺。
IDC数据显示,2024年中国自主研发的AI芯片在国内市场的份额已攀升至30%,2025年预计将突破50%。
H200获准进入中国市场的消息,给市场带来了震动。虽然英伟达最新的旗舰产品是基于Blackwell架构的B200系列,但H200依然是一款高性能芯片。
![]()
它基于成熟的Hopper架构,拥有与旗舰H100相同的989 TFLOPS的FP16/BF16半精度浮点算力,集成了约16896个CUDA核心和528个第四代Tensor Core。其最大的亮点是配备了高达141GB的HBM3e高带宽内存,内存带宽达到惊人的每秒4.8TB,这甚至超过了H100的80GB HBM3内存和3.35TB/s的带宽。
对于需要处理万亿参数、消耗海量显存的大模型训练任务而言,更大的内存容量和带宽意味着可以容纳更大的模型、使用更大的批次进行训练,从而显著提升效率。
事实上,H200的回归并非意味着英伟达能完全重夺中国市场。
第一个难题就是高昂的价格。按照单颗H200售价约4万美元计算,25%的抽成意味着每颗芯片需要额外支付1万美元。这使得H200的实际采购成本远高于此前的H100,也高于国产同类产品。
其次是配额限制。销售仅限于“经批准的客户”,并由美国商务部进行审查。这意味着大量中小企业和被列入实体清单的机构无法获得采购资格,而这恰恰是国产芯片的主要市场空间。
更重要的是市场分化的趋势。英伟达的优势在于极致性能和成熟的CUDA生态,这对追求尖端算力的头部互联网公司具有吸引力。但在强调安全可控的政务、金融、能源等关键领域,国产替代已成为刚性需求,H200难以进入。
然而需要强调的是,H200的性能与此前英伟达专为中国市场推出的“阉割版”H20形成了鲜明对比。
尽管H20拥有看似不错的96GB显存,但其算力被大幅削减至仅148 TFLOPS。据美国智库进步研究所的报告评估,H200的性能是H20的6倍左右,这使其成为一个完全不同量级的竞争者。
这种性能上的巨大落差导致H20在市场上反应平平。腾讯控股总裁刘炽平在财报电话会议上明确表态,公司已储备足够的GPU库存以支撑未来的模型训练工作,无需采购H20。阿里云在2026财年第一季度财报中也表示,H20的实际算力表现“无法满足大模型迭代需求”。
当前国产AI芯片主流算力多处于英伟达A100阶段。比如寒武纪的旗舰产品思元590,明确对标英伟达A100;刚刚登陆科创板的摩尔线程,其AI芯片MTT S3000同样对标A100。少数厂商产品仅接近H100水平,像沐曦计划2026年下半年才对流片对标H100的产品进行研发,与H200存在明显代差。
H200的回归还给国内带来了英伟达引以为傲的CUDA生态。
CUDA是一个包含了编译器、库、开发工具和开发者社区的完整生态系统。深度学习框架本身不具备直接调用GPU的能力,必须通过“中间适配层”才能让GPU干活,而CUDA就是英伟达GPU的“专属中间适配层”。过去十几年,全球绝大多数AI研究和商业应用都在CUDA上构建。
百度飞桨可以适配昆仑芯,此时它不依赖CUDA,而是依赖昆仑芯的“专属中间层”(XPU SDK)。但如果开发者的模型是构建在CUDA上的,那么想要使用昆仑芯去运行它,就必须得“翻译”成飞桨能听懂的代码。
百度飞桨虽推出了插件式CUDA兼容类硬件接入方案,能让硬件厂商复用部分CUDA算子,kernel复用率最高可达92.6%,但这只是针对硬件厂商的适配优化,在一些关键任务上,仍然需要开发者重新使用飞桨平台编写。
出于对开发效率、稳定性和生态成熟度的考量,部分追求极致性能且预算充足的商业客户,可能会选择继续采用英伟达方案。但这并不意味着国产芯片会失去市场——两者的目标客户群体正在分化,英伟达吃高端市场,国产芯片则在中低端市场和安全可控领域站稳脚跟。
它基于成熟的Hopper架构,拥有与旗舰H100相同的989 TFLOPS的FP16/BF16半精度浮点算力,集成了约16896个CUDA核心和528个第四代Tensor Core。其最大的亮点是配备了高达141GB的HBM3e高带宽内存,内存带宽达到惊人的每秒4.8TB,这甚至超过了H100的80GB HBM3内存和3.35TB/s的带宽。
对于需要处理万亿参数、消耗海量显存的大模型训练任务而言,更大的内存容量和带宽意味着可以容纳更大的模型、使用更大的批次进行训练,从而显著提升效率。
B
与其他国产AI芯片厂商不同,昆仑芯并非孤立的硬件产品,而是百度AI生态中的关键一环。
2021年,百度的智能芯片及架构部门完成了独立融资,正式成立了昆仑芯(北京)科技有限公司。尽管已经成为一家独立公司,百度依然是其控股股东,持有约59.45%的股份。
昆仑芯第一代产品在2020年量产,采用14nm工艺和自研的XPU架构,INT8算力为260TOPS,功耗控制在100瓦级别。
到目前量产的第三代P800芯片,工艺已升级至7nm,FP16算力达345TFLOPS——这个数字是英伟达中国特供版H20芯片的2.3倍。
更值得关注的是昆仑芯背后的全栈技术整合能力。
在百度构建的AI技术体系中,昆仑芯提供底层算力,飞桨(Paddle)深度学习框架负责中间调度,文心系列大模型则是最终应用。这种"芯片-框架-模型"的垂直整合模式,与谷歌的TPU芯片、TensorFlow框架和Gemini模型的组合如出一辙。
![]()
这种闭环带来的好处是显而易见的。
飞桨可以针对昆仑芯的硬件特性进行深度优化,文心大模型的训练和推理效率因此得到提升;反过来,大模型的实际需求又为昆仑芯的迭代指明方向。
相比之下,其他国产芯片厂商往往需要适配多个主流框架,这在开发效率和性能优化上都面临更大挑战。
独立运营后的昆仑芯,商业化进展超出了不少人的预期。
2024年营收突破10亿元,市场预期2025年将增长至35亿元以上,并有望实现盈亏平衡。更重要的是客户结构的变化——最初更多依赖百度内部需求的昆仑芯,外部客户占比正在快速扩大,覆盖互联网、电信运营商、大型央国企等关键领域。
2025年8月的一次中标颇具标志性意义:昆仑芯在中国移动10亿级别的AI算力采购项目中,在三个标包中均排名第一。
但昆仑芯还不能高枕无忧,单从业务上看,昆仑芯采用Fabless模式,生产环节依赖外部代工。
2024年上半年其还能较容易地从台积电获取7nm晶圆代工产能,但随着境外新规落地,先进制程晶圆代工和HBM供应等方面均受到不利限制。
同时,昆仑芯团队的软件优化和框架支持长期优先围绕百度生态展开,对外部开源模型和小众框架的支持度还不够。
相较于其他AI芯片,昆仑芯的泛化能力还有提高的空间。
12月5日,昆仑芯完成新一轮融资,投后估值约210亿元人民币。
两天后百度发布公告称,正就拟议分拆及上市进行评估。据外媒报道,昆仑芯最初考虑科创板上市,但后来转向香港证券交易所,计划最早在2026年第一季度提交上市申请,目标是2027年初完成IPO。受此消息影响,百度港股股价在12月5日收盘时上涨5.01%。
对昆仑芯而言,独立上市的意义不仅在于融资。更重要的是,它能让昆仑芯的估值独立于百度的传统业务,避免广告、搜索业务波动对其的影响,资本市场会按照AI芯片行业的逻辑对其进行估值。
在产品布局上,昆仑芯也在加速推进下一代产品。沈抖透露,针对大规模推理场景的M100芯片已完成回片,主打极致性价比,将于2026年上市。字节、阿里、腾讯等头部互联网客户已拿到小规模样片测试并小范围部署,百度也规划了M100芯片的大型集群部署场景。
这种“内部验证+外部拓展”的商业化路径,既降低了市场风险,又为产品迭代提供了真实的应用反馈。在英伟达H200可能回归的背景下,昆仑芯或多或少也有底气。
C
在H200回归的新闻引发热议的同时,更值得关注的是这次“解禁”背后的政策逻辑,以及它对国产AI芯片带来的实际影响。
从政策细节看,这次调整并非一次彻底的“放开”,而是一种“有管理的开放”。
美国政府明确表示,基于Blackwell架构的芯片以及下一代Rubin架构芯片,仍然被严格禁止出口到中国。允许出口的H200,本质上是英伟达的上一代产品。换句话说,美国的核心策略并未改变——在最顶尖的AI技术上对中国保持代差优势,同时通过出售"次旗舰"产品获取经济利益。
外媒分析认为,这种模式很可能成为未来美国对华科技出口管制的新常态:在不放弃技术霸权的前提下,有选择性地通过出售非尖端但足够强大的技术来平衡经济利益与战略考量,同时以此作为影响中国科技产业发展的筹码。
然而,H200的回归之路远比表面看起来更加曲折。在美国内部,围绕是否向中国放行高端芯片的争议极大,这使得该政策的长期稳定性存在巨大疑问。
这其中最具代表性的是《SAFE CHIPS Act》(《安全芯片法案》)。
该法案要求美国商务部在30个月以上时间内拒绝向中国出口尖端半导体的申请。一旦这项法案获得通过,特朗普将失去芯片出口的决策权。
外媒认为,特朗普政府火速审批H200放行,可能是在法案进入审议前抢占先手,通过行政批准制造既定事实。
同时,这种政策层面的不确定性,也让中国企业开始担忧GPU供应链。
即便现在可以采购H200以缓解短期算力需求,中国的头部大厂和关键行业客户也大概率不会完全放弃国产芯片的适配和应用。
![]()
目前国内AI企业普遍采用“双备份”(Dual Sourcing)策略——百度自己就是如此,之前百度百舸采用的就是混合算力架构,既用自研昆仑芯,也用英伟达等芯片。
诚然,这种策略会增加短期的研发成本和系统复杂度,但从长远来看,这是应对地缘政治不确定性的明智选择。当供应链随时可能因为政策变动而中断时,技术自主权的价值远超短期的成本增加。
在中国一侧,国家层面对国产替代的政策支持力度也在持续加大。
国家集成电路产业投资基金二期募集金额已达2000亿元以上,为芯片企业提供了强有力的资金保障。税收优惠、研发补贴、政府采购倾斜等一揽子政策正在形成合力。国资委79号文更是明确要求,2027年底前实现所有中央企业信息化系统的国产替代。
这些政策信号清晰地表明,在关键技术领域,中国不会因为外部环境的短期变化而动摇自主研发的决心。对昆仑芯等国产AI芯片厂商而言,这意味着一个长期稳定且不断扩大的市场空间。
一位接近百度的人士向字母榜透露,芯片本就是长周期规划的产业,长期竞争因素始终存在,昆仑芯在产品迭代时就已考虑过相关变化,因此不需要做大的调整。昆仑芯在今年11月公布的未来5年发展方向中,已经规划了M300以及超节点设备等产品线。
另一方面,H200允许进口后,可能也会改变百度的采购政策。不过百度方面并未向字母榜透露相关内容。
从更宏观的视角看,H200的放行与昆仑芯的上市计划,本质上是同一场技术博弈在不同维度的映射。前者代表着美国试图在保持技术优势的同时获取经济利益,后者则体现了中国在关键技术领域寻求自主可控的战略定力。
在这场长期博弈中,短期的政策变动或许会带来市场波动,但真正决定格局的,仍然是技术积累、生态建设和战略耐心。对昆仑芯等国产AI芯片而言,挑战依然严峻,但机遇同样清晰——在一个注定分化的市场中,找到自己的立足点,并不断向上突破。
而且,英伟达H200究竟能不能进入中国,目前来看,仍然是个未知数。





京公网安备 11011402013531号