当全球大模型竞赛进入深水区,阿里云选择用更密集、更开放的模型矩阵回应挑战。 10 月 22 日,通义千问团队正式推出 Qwen3-VL 家族的两款全新密集型(Dense)模型——2B 与 32B,不仅填补了现有产品线的关键档位,更将整个系列的开源模型数量推至 24 个,构建起从轻量级到超大规模的完整技术生态。
至此,Qwen3-VL 家族已拥有四款 Dense 模型(2B、4B、8B、32B)和两款 Mixture of Experts(MoE)架构模型(30B-A3B 与 235B-A22B),参数规模横跨 20 亿至 2350 亿,精准覆盖从边缘设备部署到云端超大规模推理的全场景需求。更值得注意的是,所有模型均提供 Instruct(指令微调)与 Thinking(推理增强)两个版本,开发者可根据任务特性灵活选用。
为兼顾性能与效率,阿里云还同步发布了 12 款 FP8 量化版本模型。这些轻量化变体在几乎不损失精度的前提下,显著降低显存占用与推理延迟,让高性能多模态 AI 能在更多实际业务中快速落地。
所有 Qwen3-VL 开源权重模型现已全面开放,用户可在魔搭(ModelScope)社区与 Hugging Face 平台免费下载,并支持商业用途。这一策略不仅大幅降低了企业接入前沿多模态能力的门槛,也为学术界与创业团队提供了即拿即用的技术基座。
在闭源模型筑起高墙的当下,阿里云选择以开源生态破局。Qwen3-VL 的持续扩展,不仅是技术实力的体现,更是一种对开放协作、普惠智能的坚定承诺。随着模型家族日益壮大,通义千问正从“可用”迈向“好用”与“易用”,加速推动 AI 能力从实验室走向千行百业的真实场景。