8月11日,智谱AI推出全球100B级效果最佳的开源视觉推理模型 GLM-4.5V(总参数 106B,激活参数 12B),并同步在魔搭社区与Hugging Face开源。此外,API调用价格低至输入2元/M tokens,输出6元/M tokens。
GLM-4.5V基于智谱新一代旗舰文本基座模型GLM-4.5-Air,延续GLM-4.1V-Thinking 技术路线,在41个公开视觉多模态榜单中综合效果达到同级别开源模型SOTA性能,涵盖图像、视频、文档理解以及GUI Agent等常见任务。比如,GLM-4.5V能够根据用户提问,精准识别、分析、定位目标物体并输出其坐标框。
据介绍,多模态推理被视为通向通用人工智能(AGI)的关键能力之一,让AI能够像人类一样综合感知、理解与决策。其中,视觉-语言模型(Vision-Language Model, VLM)是实现多模态推理的核心基础。