当前位置: 首页 » 资讯 » 新科技 » 正文

英伟达巧用8B模型秒掉GPT-5,开源了

IP属地 中国·北京 编辑:李娜 量子位 时间:2025-12-06 16:16:25

英伟达端着一个8B小模型对GPT-5说:

不好意思,你还得练(bushi)。

何出此言?——英伟达携手香港大学开源的Orchestrator-8B,人类终极考试HLE分数更高、花钱更少、跑起来速度还更快。

哦对了,还在HuggingFace被狂赞,冲到了热门模型前五。

而它超越GPT-5的打法是不当推理者,而是“工具主理人”,协调使用各路工具。

如何吊打GPT-5?

人在解决问题时会找各种帮手,比如搜索引擎、计算器 ,那这个工作能不能由模型代劳?

Orchestrator干的就是这事儿。

虽然自己只有8B参数,但手下管着一整个工具团队。

既有GPT-5、Claude Opus 4.1这样的顶级大模型,也有Qwen2.5-Math这样的专业数学工具,还有网页搜索、本地检索、代码解释器这些实用小帮手。

它并不是自己解题,而是判断现在该用哪个工具、控制工具的顺序和使用次数、还能兼顾效果、成本、用户偏好,工作日常如下:

拿到难题先分析:这题需要算数学?那就调用Qwen2.5-Math;

过程中动态调整:搜完资料发现需要验证?那就先用代码解释器跑一遍;

全程把控用户偏好:用户说要省钱,那GPT-5能不用就不用,优先用本地工具。

简单说,大模型是一个人干所有活,而Orchestrator-8B是带着团队干专业活。

能让小模型精准协调这么多工具,全靠英伟达的ToolOrchestra训练大法。

核心有两个,一个是有奖有罚的强化学习,一个是量身定制的ToolScale数据集

训练时给Orchestrator立了三条奖惩规则:

效果奖:让GPT-5判对错,解题对了加分,错了扣分;

效率奖:用的钱少、耗时短加分,反之扣分;

偏好奖:听用户的话加分,比如用户要隐私保护,多用本地搜索就加分。

研究者建了个包含金融、医疗、电商、旅游等10个领域的训练素材库,里面全是“怎么用工具解题”的案例,让模型充分接触各类场景。

Orchestrator-8B也在权威测试中交出了令人满意的答卷。

HLE测试里它拿下37.1%的得分,超过GPT-5的35.1%,成本却仅为后者的1/2.5;

frameS、τ²-Bench测试中也拿下SOTA成绩,降低了开支,运行速度更是快了一倍多。

小模型的逆袭

实际上,在AI领域工具编排和小模型驱动复合系统的赛道上,英伟达ToolOrchestra训练的Orchestrator-8B并非孤例。

最早探索让小模型学会调用工具的代表性研究,是谷歌DeepMind在2023年提出的Toolformer,通过监督学习+自生成数据,让12B参数的模型学会调用计算器、翻译API、搜索引擎等基础工具;

但当时,Toolformer仅聚焦基础工具,并没有把大模型纳入工具库。

MIT和CMU联合团队的ToolRL,提出以奖励为核心的工具学习框架,训练小模型通过强化学习动态选择工具,主要是解决“传统工具学习过度依赖人工标注数据” 的问题,通过自动生成工具交互轨迹训练模型。

虽然也是奖励机制,但ToolRL的奖励函数更侧重于任务的正确性和工具调用效率,并没有明确纳入用户偏好,且工具库以基础工具和专业API为主。

今年,香港大学和微软提出的Optimal Tool Calls(OCT),也是专门针对“工具调用成本优化”的小模型训练方法。

越来越多的团队在做相关研究,也有越来越多的人关注该领域的进展。

就拿Orchestrator-8B来说,为什么它能获得HuggingFace高赞?

最明显的原因就是实用。大模型虽强,但太贵、太慢,而Orchestrator-8B参数量小,还能实现「强+省钱」,直接解决了落地时的成本难题。

用低成本实现高智能,这么一看,AI的未来还真不一定是超级大模型单打独斗了。

作者简介

Orchestrator-8B这篇论文的一作是香港大学博士苏弘锦,主要研究方向是数据科学和自然语言处理,现在英伟达实习。

共一是英伟达研究院的研究科学家Shizhe Diao,主要进行大型基础模型的预训练、高效调优和对齐方面的研究,曾与字节跳动人工智能实验室的李航博士合作。

标签: 工具 模型 用户 数据 成本 基础 博士 学会 香港大学 分数 专业 动态 效果 实验室 人工智能 解释器 过度 任务 正确性 苏弘锦 方向 金融 解决问题 科学家 电商 时会 研究院 医疗 终极

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。