当前位置: 首页 » 资讯 » 新科技 » 正文

​Nvidia 推出小型开放模型 Nemotron-Nano-9B-v2:可切换的推理功能

IP属地 中国·北京 编辑:任飞扬 Chinaz 时间:2025-09-01 18:34:35

近日,Nvidia 正式发布了一款新型小型语言模型 Nemotron-Nano-9B-v2,标志着小型模型的热潮再度升温。

该模型具备9亿个参数,虽然相较于其他数百万参数的小型模型而言规模更大,但较原始的12亿参数已大幅缩减,旨在能够在一台 Nvidia A10GPU 上高效运行。Nvidia 的 AI 模型后训练总监 Oleksii Kuchiaev 在社交平台上表示,减少参数的目的在于更好地适应部署需求,并且该模型采用了混合架构,可以在处理较大批量时比类似尺寸的变换模型快6倍。

Nemotron-Nano-9B-v2支持多种语言,包括英语、德语、西班牙语、法语、意大利语、日语等,适用于指令跟随和代码生成等任务。该模型的设计还包括一项创新功能 —— 用户可以通过简单的控制令牌来切换 AI 的 “推理” 过程,即在给出答案之前进行自我检查。系统默认会生成推理痕迹,但用户可通过如 /think 或 /no_think 等命令来控制此过程。此外,模型还引入了 “思考预算” 管理机制,允许开发者设定推理过程中所使用的标记数量,以在准确性与响应速度之间取得平衡。

根据测试结果,Nemotron-Nano-9B-v2在多个基准测试中表现优异。在 “推理开启” 模式下,该模型在 AIME25、MATH500、GPQA 和 LiveCodeBench 等测试中都取得了令人满意的成绩。此外,它在指令跟随和长上下文基准测试中同样表现出色,显示出相较于其他开放小型模型更高的准确性。

Nvidia 为这一模型设定了开放许可协议,允许开发者在商业上自由使用与分发,并明确不对生成的输出声索所有权。这意味着企业可以在无需额外协商的情况下立即将该模型投入生产,而不必担心使用门槛或费用。

Nvidia 的 Nemotron-Nano-9B-v2模型为需要在小规模上实现推理能力与高效部署的开发者提供了新工具。其运行预算控制和推理切换功能为系统构建者提供了灵活性,旨在提高准确性和响应速度,进一步推动小型语言模型的发展。

划重点:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。