当前位置: 首页 » 资讯 » 新科技 » 正文

正面硬刚Gemini 3 Pro,阿里开源Qwen3.5-Plus|甲子光年

IP属地 中国·北京 编辑:唐云泽 甲小姐甲子光年 时间:2026-02-17 00:10:06

用17B激活参数“掀翻”万亿参数的牌桌。

作者|栗子

2月16日,除夕,阿里巴巴正式开源全新一代基座大模型千问Qwen3.5-Plus(旗舰模型Qwen3.5-397B-A17B)。

Qwen3.5-Plus不仅在性能指标上正面硬刚谷歌Gemini 3 Pro与OpenAI GPT-5.2,更凭借一系列破坏性的技术指标重塑了全球开源生态的天花板。

这款模型在架构上实现了“以小胜大”的极致平衡:拥有3970亿总参数,单次推理却仅需激活170亿参数,其性能不仅持平甚至超越了此前万亿规模的Qwen3-Max;在商业维度上,其API价格被直接压低至Gemini 3 Pro的1/18。

更具代际意义的是,Qwen3.5完成了从“文本挂载视觉”向“原生多模态”的范式跃迁。这不再是一个单纯的对话框,而是一个能够深度理解物理世界、自主操作GUI并驱动真实商业订单流转的智能体底座。

Qwen3.5-Plus的开源,实际上是向全球开发者发放了一份通往智能体时代的低门槛门票。当顶级智能的获取成本降至冰点,原生多模态能力不再是巨头专利,一场关于效率、普惠与生态主权的深度博弈已然在2026年的春节期间拉开序幕。

1.告别“暴力美学”,迈向极致稀疏

长久以来,大模型产业一直笼罩在Transformer经典架构的“算力咒语”之下。

传统的自注意力机制具有二次方复杂度,这意味着计算资源消耗随文本长度增加而急剧膨胀,导致超长上下文处理成为少数巨头才能负担的奢侈品。

Qwen3.5-Plus的技术核心,在于其对这一底层范式的改良。通过将线性注意力机制与稀疏混合专家模型深度融合,千问团队在模型架构上实现了效率跨越,终结了“暴力堆砌参数”的时代。

与前代Qwen3-Max(万亿参数)相比,Qwen3.5-Plus总参数为3970亿,但通过自研的门控技术与稀疏混合专家(MoE)架构的结合,仅激活170亿参数,远低于传统稠密模型的100%参数激活率。

这种高效的参数激活机制带来了三大关键优势:

1.显存占用显著降低:Qwen3.5-Plus的部署显存占用较Qwen3-Max降低60%,极大降低了模型部署的硬件门槛。

2.推理效率大幅提升:在常用的32K上下文场景中,Qwen3.5-Plus的推理吞吐量可提升至Qwen3-Max的8.6倍;在256K超长上下文情况下,推理吞吐量最大提升至19倍。

3.训练稳定性增强:通过门控技术解决了大模型长期存在的两大问题:注意力池(Attention Sink)和巨量激活(Massive Activation),使模型在低精度(如BF16)训练中更稳定,首token的注意力占比从46.7%降至4.8%,最大激活值从1053降至94。

Qwen3.5-Plus的混合架构设计融合了线性注意力机制与稀疏MoE架构,实现了对长文本的动态聚焦。

传统大模型处理长文本时,每个token需与所有上下文进行全量注意力计算,而Qwen3.5-Plus通过动态分配注意力资源,对重要信息精读、对次要信息略读,显著降低了计算复杂度。

此外,Qwen3.5-Plus进一步强化了“思维模式”与“非思维模式”的二元体系。在处理日常对话或低难度任务时,模型可以利用非思维模式实现毫秒级的快速响应;而一旦涉及科研级问题或复杂的代码重构,模型会自动切换至长链条思维模式,通过生成内部思考链来提升答案的准确性。

用户甚至可以根据任务性质动态分配“思维预算”,这种灵活的计算资源调度机制,使得AI不再是一个死板的函数转换器,而更像是一个具备策略意识的智能实体。

这种对思维深度的精细化控制,是Qwen3.5-Plus能够以17B激活参数抗衡万亿模型的核心技术屏障,让其在保持强大性能的同时,显著降低了计算资源需求,为大模型的普惠化应用奠定了基础,这也是其与Qwen3-Max最本质的区别。

2.原生多模态驱动的“行动革命”

如果说架构创新是Qwen3.5-Plus的骨架,那么原生多模态能力则是其具备执行力的灵魂。

过去的多模态模型大多采用“挂接”方式,即在文本模型的基础上通过适配器挂载一个视觉编码器。

这种方案虽然简单,但在处理复杂任务时往往会因为模态间的损失而产生逻辑断裂。

Qwen3.5-Plus实现了从预训练阶段就开始的深度融合,它不再是先将图片转成特征再喂给语言模型,而是在视觉与文本混合Token上直接进行预训练。这种原生设计,让大模型真正张开了“眼睛”,学会了密集的世界知识与空间物理逻辑。

在实际应用场景中,这种原生多模态能力转化为了强大的生产力。

例如,用户只需一张手绘的界面草图,Qwen3.5-Plus就能将其直接转化为可运行的前端代码;或者通过分析一张UI截图,就能精准定位并提供代码层面的修复建议。

这种从“感知”到“决策”再到“执行”的完整链路,正是通往通用人工智能的关键一步。它标志着大模型已不再满足于纸上谈兵,而是开始具备了真实世界的干预能力。

同时,视频理解能力同样经历了质的飞跃。支持长达2小时的视频直接输入,适用于长视频内容分析与摘要生成。

在针对复杂物理空间推理的评测中,千问展现出了超越专用视觉模型的精细度。无论是在学科解题中的几何作图,还是在任务规划中的物理干预,模型都表现出了一种对三维世界深刻的直觉。

这种能力使得Qwen3.5-Plus在具身智能领域极具潜力,能够为未来的工业机器人或家用助理提供顶层的感知决策核心。

3.全球AI天平的倾斜

当我们将目光从技术细节转回宏观商业领域,Qwen3.5-Plus所引发的震动甚至更具颠覆性。

首当其冲的是其极具侵略性的定价策略:API调用价格每百万Token低至0.8元人民币,仅为Gemini 3 Pro的1/18。

在「甲子光年」看来,这种“智能廉价化”将彻底洗牌全球AI市场的权力结构。

目前,千问大模型在全球范围内的开源生态影响力已经达到了一个前所未有的高度。阿里的开源模型数量已超过400个,覆盖全尺寸、全模态,其全球下载量突破10亿次大关。

一个值得玩味的细节是,开发者基于千问开发的衍生模型超过20万个,这构成了全球最厚实、最活跃的开源底座。这种生态的广度,让Qwen不再仅仅是一个模型产品,而是一个全球开发者共同维护、共同进化的智能基础设施。

此外,Qwen3.5-Plus在语言覆盖上的野心同样不容忽视。它将支持的语言与方言扩展到了201种,并将词表大小从15万扩容至25万。这一举措极大提升了非洲、南亚以及中国少数民族语言等低资源语种的编码效率,提升幅度高达60%。

在全球化竞争中,这种对长尾语言的深度渗透,不仅体现了技术普惠的价值观,更是在这些新兴市场预先埋下了生态的种子。对于追求本地化、可定制AI解决方案的企业而言,具备这种跨语言、跨文化敏锐度的开源底座,显然比高高在上的闭源API更具吸引力。

这种全球AI天平的倾斜,标志着从“参数竞赛”向“架构效能竞赛”的转型已成定局。Qwen3.5-Plus用实际行动诠释了,未来的全球AI领导力将取决于谁能提供更低成本、更高透明度以及更强协同性的智能资源。

Qwen3.5-Plus的发布,我们可以清晰地看到阿里巴巴在AGI征途上的战略锚点。

它通过线性注意力的架构革命,打破了万亿参数模型的算力诅咒;通过原生多模态架构,赋予了AI真实世界的行动力;最后通过极致的性价比与开源生态,彻底重构了全球AI的经济生态。

对于整个行业而言,Qwen3.5-Plus确立了2026年开源模型的新基准。

它告诉我们,通往AGI的道路并不只有闭源的一条路。开源模型不仅可以做追赶者,更可以做领航员。它不仅缩短了实验室原型与工业生产力之间的距离,更让“智能”这种宝贵的生产要素像水和电一样,变得唾手可得。

随着更多补丁的发布与社区生态的不断适配,Qwen3.5-Plus极有可能在接下来的几个季度内,成为全球范围内企业级本地化部署的首选底座。

阿里巴巴在2026年除夕的这一举措,既是一份给全球技术社区的新春贺礼,也是对大模型未来演进方向的一次深刻宣告。

未来的智能将不再是少数巨头构建的垄断孤岛,而是低成本、高性能、高度透明且全人类共享的普惠资源。

在这场奔向AGI的马拉松中,Qwen3.5-Plus已经率先跨过了那个关键的里程碑,而属于开源智能的黄金时代,才刚刚揭开序幕。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。