![]()
编辑|+0、张倩
农历蛇年的最后一天,当所有人都觉得「今年就卷到这里」的时候,Qwen3.5-Plus来了!
![]()
它的特点一句话就可以概括:又强又便宜。
「强」体现在,模型发布即登顶。大家现在最关注的几项核心能力 —— 多模态理解、复杂推理、编程、Agent 智能体,Qwen3.5-Plus 在同级开源模型里都没有对手,又一次强化了社区里「最强开源 = 千问」的思想烙印。在多项基准上,它甚至能媲美或超越 GPT-5.2、Gemini-3-pro 等几个第一梯队的闭源模型。
![]()
那它有多「便宜」呢?每百万 Token 只要 0.8 元,还没今天你手里拿的一小把瓜子贵。而它对标的 Gemini-3-pro,价格足足是它的 18 倍。
这一定价不是刻意压缩成本的结果,而是由技术决定的。在一系列架构创新的加持下,Qwen3.5-Plus 的参数被极致精简,但性能却更强悍 —— 只用 3970 亿的参数(激活参数只有 170 亿)就超过了万亿参数的 Qwen3-Max。参数少了,跑起来自然轻盈,部署成本直降 60%,推理吞吐量最大提升 19 倍,效率大大提升。
这是第一次,「最强」和「最便宜」出现在了同一个模型上。
在开发者们头疼都快用不起顶级 AI 的今天,Qwen3.5-Plus 这一「源神」的发布似乎让大家打消了顾虑:技术红利不再只属于金字塔尖,而是开始真正向下渗透,成为人们手中用起来没有成本焦虑的趁手工具。
![]()
Qwen3.5 可以协助进行网页开发,尤其在构建网页和设计用户界面等前端任务方面表现出色。
![]()
通过将 OpenClaw 作为第三方智能体环境集成,Qwen3.5 能够进行网页搜索、信息收集和结构化报告生成。
![]()
借助对图像像素级位置信息的建模,Qwen3.5 在物体计数、相对位置判断、空间关系描述等任务中表现更准确。
体验地址:https://chat.qwen.ai/
当然,性能、价格只是结果,真正值得展开讲讲的,是支撑这一切的那套底层技术逻辑。让我们一起看看,Qwen 这次是怎么又一次捅破天花板的。
告别「力大砖飞」
Qwen3.5-Plus 的「以小博大」架构革命
在过去两年的大模型军备竞赛中,行业普遍信奉「大力出奇迹」,参数量从千亿一路狂飙至万亿级别。这种「力大砖飞」的模式虽然推高了性能上限,但也让算力成本和部署门槛水涨船高。
Qwen3.5-Plus 则展示了一种更为灵巧的解法:不拼绝对体量,拼「聪明程度」与底层架构的极致效率。
具体而言,Qwen3.5-Plus 以 397B 的总参数量,实现了对自家万亿参数模型 Qwen3-Max 的性能超越,且多项基准测试媲美 Gemini-3-pro 和 GPT-5.2 等闭源第一梯队模型。
这种「以小胜大」的跨级表现,主要归功于以下四项核心架构创新:
混合注意力机制: 传统大模型在处理长文本时,每个 Token 都需要进行全量的上下文注意力计算,这导致算力消耗随文本长度呈指数级增长。Qwen3.5-Plus 引入的混合机制赋予了模型「有详有略」的阅读能力,能够根据信息权重动态分配注意力资源,实现了精度与效率的双重提升。极致稀疏的 MoE 架构:不同于每次推理都需要激活全量参数的稠密模型,Qwen3.5-Plus 将 MoE(混合专家)架构推向了极致。在其 397B 的总参数中,每次推理仅需激活 17B 的参数量。这意味着模型只需动用不到 5% 的算力,就能调用全局的知识储备。原生多 Token 预测:模型打破了传统大模型「逐字吐出」的生成逻辑,在训练阶段就掌握了对后续多个位置进行联合预测的能力。这种「一次想好几步再说」的机制,使其在代码补全、长文本生成等高频场景中,推理速度接近翻倍,为用户带来几乎「秒回」的交互体验。系统级训练稳定性优化: 为了让上述复杂架构在大规模训练中不翻车,阿里引入了多项深层优化,包括归一化策略与专家路由初始化等。其中最值得一提的是荣获 NeurIPS 2025 最佳论文奖的「注意力门控机制」。它在注意力层的输出端精准调控信息流,既过滤了无效噪音,又防止了关键信息的流失,大幅增强了长上下文的泛化能力。
在这套组合拳的加持下,Qwen3.5-Plus 不仅训练成本大降,算力部署成本较 Qwen3-Max 也降低了 60%,推理吞吐量在 256K 长文本下提升 19 倍,这为大规模提供推理服务奠定了基础,也直接促成了其极致的定价策略。
![]()
拒绝「外挂拼装」
Qwen3.5-Plus 的原生多模态「地基」
除了在推理效率上「减负」,Qwen3.5-Plus 的另一大技术看点在于其跨模态理解力的重构。
目前业内许多主打「多模态」的模型,本质上仍是工程上的「拼装」:先训练一个优秀的语言基座,再外挂视觉或音频模块,中间通过适配层进行勉强对齐。这种做法不仅难以实现真正的特征融合,有时还会出现「视觉能力增强,语言能力降智」的尴尬局面。
Qwen3.5-Plus 选择了从地基开始重构,真正实现了「原生多模态」。
从预训练的第一天起,Qwen3.5-Plus 就在文本与视觉混合数据上进行联合学习。模型在统一的参数空间内深度融合视觉与语言特征,没有中间翻译带来的信息损耗,从而具备了「见图知意、读文生境」的直觉理解力。
为了让这种原生融合跑出效率,阿里摒弃了让视觉和语言共享同一套并行策略的传统做法,而是让不同模态「各走各的最优路径」,仅在关键节点进行高效汇合。配合精巧的 FP8/FP32 精度应用策略,该架构成功将激活内存减少约 50%,训练提速 10%。更硬核的是,哪怕同时喂入文本、图像、视频三种数据,它的训练速度也几乎不受影响,依然能保持和只训练纯文本时相当的效率。
研发团队针对纯文本、多模态和多轮对话场景搭建了专门的强化学习框架,将整体训练效率提升了 3 至 5 倍,确保模型能够在海量真实场景中持续进化。
这种底层架构的跃迁,赋予了 Qwen3.5-Plus 超越「简单读图」的广阔能力边界。目前的 Qwen3.5-Plus 不仅能进行图像的像素级空间定位,还能理解长达 2 小时视频的因果时序,甚至能将手绘草图直译为前端代码,或者化身视觉智能体自主操控手机与电脑、跨应用完成多步复杂任务
结合此前在 AI Arena 榜单上位居全球前三、被誉为「国产 Nano Banana Pro」的 Qwen-image-2.0,阿里在多模态理解与生成两条路线上正加速向全面掌握看、听、说、做能力的 AGI 目标迈进。
算不过账的时代结束了
新的竞赛开始了
过去两年,如果你一直在关注大模型的发展,其实会发现一件挺有意思的事:闭源模型是你方唱罢我登场,前三轮流做,明天榜首指不定是谁家。但开源领域就很明朗了,很多关键能力的「天花板刷新」,几乎都发生在 Qwen 发新模型的时候,每一代、每一个尺寸都能稳定输出。这种创新的连续性,意味着它已经形成了一条可以稳定产出的技术路线,比单次跑分高更说明问题。
而这次,Qwen3.5-Plus 又在捅一个新的天花板 —— 顶级智能的「性价比」。当模型性能逐渐逼近闭源第一梯队,同时价格却大幅往下走,事情的性质就开始变了。以前很多企业不是不想用最好的 AI,而是算不过账。现在成本结构一变,决策逻辑自然就松动了。技术扩散往往卡的不是能力,而是门槛。
历史上类似的转折其实出现过很多次。真正改变行业的,往往不是最贵、最极致的系统,而是那个最后变成基础设施的东西。Linux 当年是这样,Android 也是这样:开源降低门槛,生态把它铺开,等你意识到的时候,它已经无处不在了。
而 Qwen3.5-Plus 之所以能捅破这个天花板,背后不只是一个模型,而是一整套从模型到算力再到云的联动。阿里一边把模型能力通过开源释放出来,一边又用阿里云和自研芯片把部署和推理成本继续往下压,本质是在同时解决「用得好吗」和「用得起吗」两个问题。生态里的采用者也越来越多,从李飞飞团队到 Airbnb 这样的公司,都在把它当作实际可用的底座,而不只是研究对象。
所以如果把 Qwen3.5-Plus 只看成又一次模型升级,其实有点低估它了。更值得关注的是,一种新的竞争方式正在成形:不再只是比谁的模型最强,而是比谁能把足够强的能力,变成最多人日常用得到的基础设施。技术真正的大规模落地,往往就是从这种时刻开始的。
文中视频链接:https://mp.weixin.qq.com/s/MZ_BPDKLsF8uT0XyOhCbrw





京公网安备 11011402013531号