当前位置: 首页 » 资讯 » 新科技 » 正文

OpenAI 开源了两款模型,但…好像有点不对

IP属地 中国·北京 编辑:吴婷 赛博禅心 时间:2025-08-06 08:05:14

长话短说

OpenAI 开源了两款模型:120B/20B

这是自 GPT-2 之后,OpenAI 家的首批开源模型

效果媲美 o4-mini,单卡可跑

但是...好像有点不对,让子弹飞一会儿

你可以在 gpt-oss.com 上,直接体验这俩模型

https://gpt-oss.com/以下是今日发布

gpt-oss-120b

对标 o4-mini,117B 参数,5.1B 激活量

运行该模型,需要 80G 内存,单卡 H100 GPU 可运行

https://huggingface.co/openai/gpt-oss-120b

gpt-oss-20b

对标 o3-mini,21B 参数,3.6B 激活量

运行该模型,需要 16G 内存,单卡 4060 Ti 可运行

https://huggingface.co/openai/gpt-oss-20b

下面,是一些要点

Apache 2.0 开源

你可以尽情商业化,不用担心专利纠纷

推理强度可调

根据业务需求,可自行调整推理强度(低/中/高)

透明思维链条

这套模型的思考过程,都可以被完整查看

支持微调

是的,你可以将它微调成任何你想要的

Agent 友好

支持函数调用、网页浏览、Python执行和结构化输出

原生MXFP4量化

模型采用原生MXFP4精度训练MoE层,让 oss-120b 在单张H100 运行, oss-20b 也只需要16GB的显卡

评测数据

根据 OpenAI 自己的评测:

gpt-oss-120b 对标 o4-mini,在 Codeforces(代码)、MMLU&HLE(通用问题)、TauBench(工具调用)上互有胜负,而在 HealthBench(健康查询)、AIME(数学竞赛)上则有所超越

gpt-oss-20b 则对标 o3-mini,其能力与之相匹配,或有所超越

官方的评测信息比较琐碎,我给重新整理了下(总感觉这里很奇怪)

贴心的我,整理了整个表格部署方法

Hugging Face

https://huggingface.co/openai/gpt-oss-20b

你可以通过 Transformers、vLLM、PyTorch / Triton、Ollama、LM Studio 来直接使用这一模型,都是支持的

你也可以直接下载这一模型

# gpt-oss-20b

huggingface-cli download openai/gpt-oss-20b --include original/* --local-dir gpt-oss-20b/

pip install gpt-oss

python -m gpt_oss.chat model/

以及,这些模型支持微调

gpt-oss-120b,可在单台 H100 node 上微调

gpt-oss-20b 可在消费级显卡(如 4060 Ti)上微调

等等!

这个模型,到底是什么协议?

到底是不是阿帕奇

以及... 对比一下 106B的GLM-4.5-Air

GPT,应该领先很多才对吧...

群友测试...很奇怪

陷入沉思...不应该啊

让子弹再飞一会儿

再附一个总表

标签: 模型 开源 强度 相匹配 原生 官方 有所 部署 表格 专利 单卡 网页 重新整理 阿帕奇 内存 函数调用 感觉 协议 纠纷 整理 方法 商业化 能力 链条 信息 思维 精度 微调 效果 业务 结构化

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。