当前位置: 首页 » 资讯 » 新科技 » 正文

OpenAI 官宣两款小模型 智能体有了“四肢”与“前哨”丨科技观察

IP属地 中国·北京 封面新闻 时间:2026-03-18 22:51:34

封面新闻记者 张峥

3月17日,OpenAI 公司发布公告,宣布推出小型模型 GPT-5.4 mini 与 GPT-5.4 nano,专为高频且对延迟敏感的任务设计。

“集成开发环境(IDE)中的实时代码补全、实时语音翻译、在线客服的语义路由预测以及大规模金融交易监控,都属于高频且对延迟敏感任务,”3月18日,封面新闻记者采访了四川大学文学与新闻学院人工智能学者宋耀,他评价道,“OpenAI开发的两款小模型其实更适用于轻量化任务,这就好比一个成熟的物流系统既需要远程重型卡车,也需要末端配送的无人机。”

轻量化应用交给小模型

深奥的哲学命题交给大模型

宋耀解释,OpenAI 发布的 GPT-5.4 mini 和 nano 所谓的“小”,主要体现在模型参数规模的精简和计算效率的极致优化。“相比于动辄消耗海量算力的旗舰级大模型,这两款模型通过知识蒸馏和架构压缩技术,显著降低了运行所需的显存与带宽压力。”它们的优势并不在于处理深奥的哲学命题或复杂的跨学科发现,而是在于极高的吞吐量、极低的延迟以及极具竞争力的性价比。在保持了 GPT-5 系列优秀推理基因的前提下,它们让 AI 能够像呼吸一样自然地嵌入到对速度要求极高的应用场景中。

小模型更适合日常需求

为什么在已经拥有强大模型的情况下依然研发小模型?宋耀打了个比方,这就好比一个成熟的物流系统既需要远程重型卡车,也需要末端配送的无人机。“大模型虽然博学,但其推理成本和能效比限制了它在琐碎任务中的普及;小模型则能以极低的成本覆盖 80% 的日常需求,释放昂贵的算力资源去处理真正困难的问题。”

随着端侧 AI(Edge AI)的兴起,将模型部署在用户的手机或个人电脑本地,不仅能保障数据隐私,还能在无网环境下提供智能支持,这正是小模型的用武之地。

mini 和 nano相当于智能体的“四肢”

在当前火热的 AI 智能体(Agent)架构中,这两款小模型充当了“四肢”与“前哨”的角色。智能体通常采用多层级协作模式,由一个性能最强的大模型担任“主考官”或“规划者”,负责分解复杂的战略目标。而具体的执行动作,如网页信息的快速抓取、多语种文档的初步清洗,或是对操作系统的实时反馈,则全部委派给 GPT-5.4 mini 或 nano。这种架构不仅大幅提升了智能体的执行速度,还让构建大规模并行智能体集群(Swarm)在商业成本上变得可行,使得 AI 能够像真正的团队一样分工协作。

AI 体验将进入“即时时代”

对于普通用户而言,这两款模型的推出意味着 AI 体验将进入“即时时代”。最直观的改变是 ChatGPT 的响应速度将变得如同本地搜索一样迅速,文字流出的过程几乎消除了肉眼可见的等待感。更重要的是,更多的应用软件将有能力在不增加用户订阅成本的情况下集成深度 AI 功能。

宋耀举例说,“你的笔记软件可以实时分析你的输入并自动排版,或者你的手机助手能更精准地理解屏幕上的内容并协助你完成订票、改签等操作,这一切都将在极低功耗下完成,让 AI 真正从一个‘网页对话框’变成系统底层随叫随到的隐形助手。”

mini 和 nano各有分工

宋耀判断,未来大小模型的协同应用将成为智能系统的标准配置。“大小混合”的架构模仿了人类大脑的运作机制:既有负责本能、直觉和快速反应的底层系统,也有负责逻辑推理和深思熟虑的高层系统。

未来的 AI 应用会自动根据任务的难度进行“动态路由”—— 而涉及核心策略或严谨科学问题的请求才会唤醒功耗最高的大模型。这种分层治理的方式不仅能极大地优化算力分配,也将推动 AI 技术从昂贵的实验室产物演变为无处不在的社会公共基础设施。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。