当前位置: 首页 » 资讯 » 新科技 » 正文

美国AI巨头纷纷闭源,英伟达为何反其道而行?

IP属地 中国·北京 DeepTech深科技 时间:2025-12-16 20:17:02

当其他巨头忙着把大门关上的时候,英伟达却在忙着把更多人请进自己的院子——当然,前提是他们得用英伟达的砖头盖房子。

本周一,英伟达宣布收购开源调度软件公司 SchedMD,并同时发布了名为 Nemotron 3 的开源大语言模型系列。这家全球最大的 GPU 制造商宣称,这是迄今为止“最高效的开源模型家族”。

本次发布的 Nemotron 3 模型家族包含三个规格:Nano(300 亿参数)、Super(1,000 亿参数)和 Ultra(5,000 亿参数)。采用混合专家模型(Mixture of Experts,简称 MoE)架构。

按英伟达的说法,Nano 的吞吐量是前代 Nemotron 2 的四倍,推理时的 token 生成量最多可减少 60%。此外,Nano 的上下文窗口扩展到了 100 万 token,是前代的七倍。不过,需要注意的是,目前只有 Nano 立即可用,Super 和 Ultra 要到 2026 年上半年才会正式发布。

此次发布的开放程度较高。英伟达公开了模型权重、将近 10 万亿 token 的合成预训练语料以及详细的训练配方,采用 NVIDIA Open Model License 许可协议,模型可商用、允许创建并分发衍生模型,英伟达不主张对模型输出的所有权。开发者可以在 GitHub 和 Hugging Face 上获取这些资源,并使用 NeMo Gym、NeMo RL 等配套工具库进行强化学习训练和安全评估。

收购 SchedMD 则是对英伟达软件布局的补强。SchedMD 是 Slurm 的主要开发者,后者是一套广泛应用于高性能计算(High-Performance Computing,HPC)和 AI 训练集群的开源工作负载调度系统,全球 TOP500 超级计算机中超过一半在使用它。

英伟达与 SchedMD 的合作已经持续了十多年,此次收购后,公司承诺将继续以开源、厂商中立的方式运营 Slurm。这笔交易的具体金额未披露,但 SchedMD 的 CEO Danny Auble 在声明中表示,此次收购“是对 Slurm 在最严苛的 HPC 和 AI 环境中扮演关键角色的终极认可”。


图丨Danny Auble(SchedMD)

就在英伟达持续扩大开源力度的同时,其他美国 AI 巨头在开源领域却集体后撤。

就在上周,彭博社和多家媒体报道称,meta 正在开发一款代号为“Avocado”的新模型,预计将于 2026 年春季发布,而这款模型很可能不再开源。这对一家曾大张旗鼓宣扬“开源是 AI 正道”的公司来说,无异于一次立场倒戈。扎克伯格去年还在公开信中信誓旦旦地写道,“开源 AI 是前进的道路”,并高调批评 OpenAI 变得越来越封闭。

但今年 Llama 4 的旗舰版本 Behemoth 在基准测试中表现不佳后,meta 的超级智能实验室(meta Superintelligence Labs)内部开始讨论转向闭源路线,其新任的首席 AI 官 Alexandr Wang 也是闭源模型的倡导者。

OpenAI 的开源节奏同样缓慢。今年 8 月,该公司发布了 GPT-oss 系列开源模型,包括 117 亿参数的 gpt-oss-120b 和 21 亿参数的 gpt-oss-20b,采用 Apache 2.0 许可。但这距离其上一次开源发布(GPT-2)已过去五年。而在如今 OpenAI 面临来自谷歌的巨大竞争压力下,显然并不太可能在开源方面投入过多。

与此同时,大洋彼岸的中国开源力量正以惊人的速度崛起。根据 OpenRouter 和风险投资机构 a16z 联合发布的一份报告,中国开源大语言模型的全球使用份额已从 2024 年底的 1.2%飙升至近 30%。DeepSeek-V3、阿里巴巴旗下的 Qwen 系列以及 Moonshot AI 的 Kimi K2 成为这波增长的主要推动力。


(OpenRouter)

更让美国同行不安的是,中国公司在开源这条路上走得极为坚定。阿里云不断迭代 Qwen 系列,DeepSeek 频繁更新模型版本,形成了一套密集的发布节奏。反观美国巨头,除了英伟达,几乎都在向闭源收缩。

黄仁勋对此并不讳言。他在今年 10 月于华盛顿举办的 GTC 大会上称,中国在开源领域“遥遥领先”,如果美国公司全面撤退,可能会对中国软件“渗透世界”的那一天“毫无准备”。

那么,作为一家硬件公司,英伟达为何要在这种趋势下逆势加码开源?答案仍然要回到它最核心的生意:卖芯片。

英伟达的核心护城河不仅是 GPU 硬件,更是围绕 GPU 构建的软件生态,尤其是 CUDA。CUDA 是一套专为英伟达硬件设计的并行计算平台和编程接口,自 2006 年推出以来,已成为 AI、机器学习和高性能计算领域事实上的行业标准。全球超过 400 万注册开发者在 CUDA 上编写代码,TensorFlow、PyTorch 等主流深度学习框架都对其有深度依赖。

英伟达很早就意识到,开源软件是巩固这套生态锁定的绝佳手段。虽然 CUDA 本身是闭源的(这也一直受到竞争对手的诟病),但英伟达多年来持续向开源社区投入资源:参与 Linux 内核、PyTorch、TensorFlow、Kubernetes 等项目的开发,发布 CV-CUDA、TensorRT 等开源组件,并在 2022 年将 Linux GPU 内核模块以 GPL 和 MIT 双许可的形式开源。这些举措的核心逻辑非常清晰,让开发者在开源世界里自由探索,但最终,他们构建的工具和应用仍然需要(或最适合)跑在英伟达的硬件上。

Nemotron 3 的推出是这套战略的延伸。英伟达生成式 AI 软件业务副总裁 Kari Briski 在发布会前的媒体吹风会上说得相当直白:“当我们是最好的开发平台时,人们自然会选择我们,选择我们的平台,选择我们的 GPU,不仅为了今天的项目,也为了明天的产品。”

开发者用 Nemotron 搭建 AI 应用、训练智能体,这些工作流最终都会沉淀在英伟达的硬件生态里。当他们习惯了 NeMo、Triton 这些工具,当他们的代码深度绑定在 CUDA 上,切换到 AMD 或其他平台的成本就会变得越来越高。

从这个角度看,英伟达做开源模型,并不是要跟 OpenAI 或 Anthropic 抢 LLM 的生意,这些公司的模型主要通过 API 付费使用,而英伟达的商业模式是卖芯片。它真正对标的,是那些可能让开发者“脱离英伟达轨道”的替代方案:无论是中国的开源模型生态,还是 AMD 的 ROCm、英特尔的 oneAPI,抑或是那些试图在非英伟达硬件上训练和部署 AI 的努力。

此外,英伟达此举还精准瞄准了一个特殊的客户群体——那些对数据安全和模型透明度有极高要求的企业与机构。

Kari Briski 表示:“我们的很多企业客户无法部署某些模型,也无法在源代码不透明的模型上构建业务。”她强调,英伟达希望提供一个可靠且持续更新的开源模型路线图,因为“如果只发布过一个模型且没有后续计划,开发者是不敢真正依赖的”。

这番话的潜台词就在于:英伟达瞄准的是那些对模型透明度和可审计性有刚性需求的客户群体,如医疗、金融、国防等受监管行业,以及全球各国寻求“主权 AI”能力的政府机构。

Nemotron 支持英伟达更广泛的主权 AI 战略,从韩国到印度再到中东,越来越多的国家希望在本土部署可以审计、符合本地法规和价值观的 AI 系统。闭源模型无法满足这些需求,而来自中国公司的开源模型又可能引发这些国家的地缘政治顾虑,这恰好给英伟达留下了巨大的市场空间。

这种填补真空的策略,所代表的正是英伟达在产业链纵向整合上的野心。与试图靠模型 API 盈利的软件巨头不同,黄仁勋并不在意把模型本身卖个好价钱,他在意的是这些模型究竟跑在哪里。

通过 Nemotron 3,英伟达实际上是在用开源代码构建一种比 CUDA 更上层的黏性:当全球的开发者、银行乃至政府机构都习惯了基于这套方案构建业务时,他们也就把自己锁死在了英伟达的硬件战车上。也就是说,开源对英伟达来说,只是手段而非目的。

参考资料:

1.https://nvidianews.nvidia.com/news/nvidia-debuts-nemotron-3-family-of-open-models

2.https://www.wired.com/story/nvidia-becomes-major-model-maker-nemotron-3/

3.https://gizmodo.com/nvidia-wants-to-be-your-open-source-model-provider-2000699568

运营/排版:何晨龙

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。