当前位置: 首页 » 资讯 » 新科技 » 正文

智谱发布新一代基座模型GLM-4.5:开源、高效、低价,专为智能体而生

IP属地 中国·北京 编辑:陆辰风 极客公园 时间:2025-07-29 00:08:06

AI新浪潮观察

5min read

智谱发布新一代基座模型GLM-4.5:开源、高效、低价,专为智能体而生

连然 2025/07/28


摘要

SOTA级「原生智能体」模型?

头图视觉中国

7月28日晚间,智谱发布了其新一代旗舰模型GLM-4.5。

与早期追求参数规模的竞赛不同,GLM-4.5的发布重点突出地体现在三个方面:明确面向智能体(Agent)应用的设计、通过技术优化实现的高性价比,以及全面拥抱开源和开发者生态的战略布局。

之前在今年4月,智谱就发布了「AutoGLM沉思」——一个能探究开放式问题,并根据结果执行操作的自主智能体。今天GLM-4.5的推出,不仅是智谱自身模型矩阵的一次升级,也从一个侧面反映出AI行业发展的趋势性变化:模型的价值正在进一步加速向解决实际问题、降低应用门槛的方向迁移。


为「智能体」而生的模型设计

衡量一个大模型的优劣,综合能力基准评测是业内的通行做法。智谱此次公布了GLM-4.5在一系列评测集上的表现。这份评测涵盖了推理、代码、科学、智能体等12个不同维度的基准测试,旨在全面评估模型的综合素质。

根据智谱提供的数据,GLM-4.5在这些测试中的综合得分位列全球参评模型的第三位,在开源模型中排名第一。


智谱

优秀的评测成绩是模型能力的基础,但更值得关注的是其背后的设计理念。GLM-4.5从一开始就将目标锁定在「智能体应用」。智能体要求模型具备任务理解、规划分解、工具调用和执行反馈等一系列复杂能力,这超出了传统聊天机器人的范畴。

智谱将「在不损失原有能力的前提下融合更多通用智能能力」作为其对AGI的理解,而GLM-4.5正是这一理念的实践。

为了支撑智能体所需的强大而灵活的能力,GLM-4.5在技术架构上做出了针对性的选择:

混合专家(MoE)架构:GLM-4.5采用了MoE架构,总参数量达到3550亿,而单次推理中被激活的参数量为320亿。这种架构允许模型在保持巨大知识储备和能力上限的同时,能根据具体任务,只调用部分「专家」网络进行计算。其直接好处是在保证高质量输出的前提下,有效控制了推理成本和能耗,为大规模应用部署提供了可行性。双模式运行:模型被设计为两种工作模式——「思考模式」和「非思考模式」。「思考模式」为复杂的推理和工具调用任务设计,允许模型投入更多计算资源进行深度规划;「非思考模式」则服务于需要快速响应的场景。这种设计兼顾了智能体在执行复杂任务时的「深度」与日常交互时的「速度」,是对实际应用场景需求的细致考量。针对性数据训练:模型的训练过程也体现了其应用导向。在15万亿token的通用数据预训练之后,团队使用了8万亿token的高质量数据,在代码、推理、智能体等领域进行了针对性训练,并通过强化学习进行能力对齐。这种「通识教育+专业深造」的训练路径,旨在让模型不仅知识渊博,更在特定专业领域具备解决实际问题的能力。

综合来看,GLM-4.5并非一个泛泛的通用模型,其技术选型和训练策略都清晰地指向了构建高效、可靠的AI智能体这一具体目标,这也反映了智谱对大模型下一阶段应用形态的判断。


成本、效率与生态的商业逻辑

性能是技术层面的核心,而成本和生态则是决定一项技术能否被市场广泛接纳的关键。GLM-4.5在此次发布中,展现了清晰的商业逻辑。

首先是参数效率带来的成本优势。

「参数效率」是评估模型训练水平和架构设计的重要指标,即用相对更少的计算资源实现同等或更优的性能。智谱方面的数据显示,GLM-4.5的参数量显著低于部分业界同类模型,但在多项基准测试中表现更佳。在代码能力榜单SWE-bench Verified上,其性能与参数量的比值处于帕累托前沿,这证明了其较高的训练和推理效率。

更高的效率直接转化为更低的部署和使用成本。此次公布的API定价——输入0.8元/百万tokens,输出2元/百万tokens——显著低于当前市场主流闭源模型的定价水平。配合高速版可达100 tokens/秒的生成速度,GLM-4.5为开发者提供了一个兼具高性能和低成本的选择。


智谱

其次是降低门槛、构建开发者生态的战略意图。

低廉的价格并非目的,而是吸引开发者、繁荣生态的手段。AI应用的普及,根本上依赖于开发者社区的创造力。高昂的API费用一直是阻碍许多中小型团队和个人开发者进行创新的主要障碍之一。通过大幅降低价格,能够降低AI应用的开发门槛,激发更广泛的创新。

在生态构建上,智谱采取了务实的策略。例如,GLM-4.5的API被设计为可以兼容主流的Claude Code框架。这一举措使得已经熟悉该框架的开发者能够以极低的成本将工作流迁移至GLM-4.5,有效减少了技术选型和切换的阻力。

此外,将模型权重在Hugging Face和ModelScope等平台遵循MIT License进行开源,也体现了其开放的姿态。MIT License对商业使用限制极少,这为企业和个人基于GLM-4.5进行二次开发和商业化应用铺平了道路。

通过「高参数效率」实现「低使用成本」,再以「低成本」和「高兼容性」吸引开发者,从而构建起一个活跃的应用生态——这是一条清晰且务实的商业路径。


从功能演示到实际应用的距离

但衡量一个模型最终价值的,仍然是它在真实世界中的表现。

智谱此次展示了多个基于GLM-4.5原生能力构建的应用案例,如可交互的搜索引擎、社交媒体网站,以及Flappy Bird小游戏等。

这些案例证明,GLM-4.5 模型已经具备了相当程度的全栈开发和工具调用能力,能够理解需求并自主生成可运行、可交互的应用程序。

这些演示作为技术能力的验证是成功的,它们展示了GLM-4.5在智能体方向上的潜力。不过从功能演示到稳定可靠的生产级应用,仍然存在一段距离。

在智谱自己公布的真实场景对比测试中,这一点也得到了反映。测试结果显示,GLM-4.5在编程任务中的表现优于其他参评的开源模型,尤其在工具调用的可靠性方面。但报告也同时指出,与顶尖的闭源模型Claude-4-Sonnet相比,GLM-4.5在提供近似效果的同时,仍存在一定的提升空间。

这种对比是对当前AI技术发展的普遍现状的一种反应:顶尖的开源模型正在快速追赶,但在部分能力上与最前沿的闭源模型相比,尚有差距。

智能体在开放环境中的稳定性、对模糊指令的理解能力、以及在遭遇未知情况时的纠错和适应能力,都是决定其真正成为「可靠的工具」的核心挑战。

智谱此次选择公开评测题目和Agent轨迹,邀请行业共同验证和改进,也体现了一种积极和开放的态度。

GLM-4.5的发布,没有将重点放在参数规模的数字上,而是聚焦于智能体这一明确的应用方向,并通过技术优化和商业策略,为开发者社区提供了一个高性价比的基础平台。

大模型行业正进入更加注重实际应用,更加注重成本效益,也更加注重开发者生态建设的阶段。

接下来,GLM-4.5的市场表现,以及在其之上能诞生出多少创新的AI原生应用,将是检验其最终成功与否的关键。

智谱 智能体 GLM-4.5

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。