当前位置: 首页 » 资讯 » 新科技 » 正文

从开源最强到挑战全球最强:DeepSeek新模型给出了解法

IP属地 中国·北京 观察者网 时间:2025-12-02 20:12:37

(文/陈济深 编辑/吕栋)

12月1日,DeepSeek发布两个正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。其中DeepSeek-V3.2是两个月前DeepSeek-V3.2-Exp的正式版,做到了平衡推理能力与输出长度,适合日常使用,例如问答场景,并强化了Agent能力。官方网页端、App和API均已更新为正式版DeepSeek-V3.2。

Speciale版本是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。目标是将开源模型的推理能力推向极致,探索模型能力的边界。目前仅以临时API服务形式开放,以供社区评测与研究。

回顾过去一年,开源大模型生态在年初DeepSeek惊艳亮相之后集体爆发,阿里云的Qwen系列不断刷新榜单,月之暗面的Kimi,智谱的GLM和MiniMax的M系列模型均在发布后收获了国内外的好评并取得了超越当时顶级闭源模型的开源成果。这一波群雄并起的浪潮,将“开源追平乃至超越闭源”从一句口号变成了让闭源厂商感到压力的现实。

然而,随着Google Gemini3.0的强势发布,凭借庞大的的算力和数据,Gemini 3.0 Pro重新定义了什么是“全球最强”。其强劲的性能甚至让同为竞争对手的马斯克(xAI)和奥特曼(OpenAI)纷纷点赞,开源和闭源似乎不复存在的差距瞬间又变成了一道新的天花板。

与此同时,OpenAI前首席科学家Ilya Sutskever近期关于“Scaling Law撞墙”的论断,更是给后来者泼了一盆冷水:如果连单纯堆算力都开始失效,那么资源本就处于劣势的开源社区,难道注定只能止步于此?

在“前有算力新霸权,后有理论新瓶颈”的至暗时刻,作为开源先锋的DeepSeek再次用新模型给出了一个掷地有声的回应:开源的崛起不会因此中断。以DeepSeek为代表的国产开源模型厂商依然找到了在算力受限的情况下,通过后训练和架构创新来弥补差距,甚至实现反超闭源顶尖模型的解法。

而在这种背景下DeepSeek能做到行业头部大模型也意味着,DeepSeek在未来一旦开始堆算力,不仅有望成为全球顶尖的语言大模型,甚至可以成为一个多模态的最强全球模型。

实用主义与极致探索

此次DeepSeek更新的两款模型有着截然不同的定位,分别指向了“工业落地”与“科学探索”两个极端。

作为9月底发布的实验版V3.2-Exp的正式继任者,标准版DeepSeek-V3.2的目标非常明确,那就是平衡推理能力与输出长度。


在公开的推理测试中,V3.2已达到GPT-5的水平,仅略低于Google最新的Gemini 3 Pro。相比同类产品Kimi-K2-Thinking,V3.2得益于严格的训练策略,其输出长度大幅降低,显著减少了计算开销与用户等待时间,真正做到了适合问答、通用智能体等日常场景的“话少活好”。

而此次发布的重头戏DeepSeek-V3.2-Speciale,则是一个为了“赢”而生的偏科天才。

作为V3.2的“长思考增强版”,Speciale结合了DeepSeek-Math-V2的定理证明能力,具备出色的指令跟随、严谨的数学证明与逻辑验证能力。它的目标是将开源模型的推理能力推向极致。


数据显示,Speciale在多个推理基准测试中超越了Google最先进的Gemini3 Pro。在美国数学邀请赛(AIME)、哈佛MIT数学竞赛(HMMT)、国际奥林匹克数学竞赛(IMO)等测试中,Speciale全面超越对手。不过在编程与理工科博士生测试中,Speciale仍略逊于Google的顶级模型。

算法层面的极限突围

在预训练算力不如Google的客观现实下,DeepSeek依然能够追上第一梯队,依靠的是其在架构层面“榨干”硬件性能的极致创新。

面对长文本计算量的指数级爆炸,DeepSeek没有选择硬抗,而是设计了DSA(DeepSeek稀疏注意力)机制。

这套机制就像一个挑剔的图书管理员,通过“闪电索引器”只检索最关键的信息,而不是把所有书都翻一遍。在经过V3.2-Exp两个月的实验后,DeepSeek确认了DSA的有效性,在不牺牲长上下文性能的前提下,成功将计算复杂度大幅降低。这种设计为V3.2在智能体场景中成为一种极具成本效益的替代方案打下了物理基础。

V3.2的核心亮点之一是其提到的“Thinking in Tool-Use”(思考型工具调用)。这实际上是AI Agent领域更为通用的技术术语——“Interleaved Thinking”(交错思维链)的一次重量级背书。

DeepSeek并不是业内首个提出该思路的模型厂商,同为国产大模型企业的MiniMax早在其文本模型M2研发阶段时,就已经敏锐地捕捉到了这一技术路径,且是首个将Interleaved Thinking推向行业标准的公司。

随后,月之暗面的Kimi K2 Thinking也基于“模型即Agent”的理念,通过端到端训练实现了推理与工具调用的自然融合。

Interleaved Thinking对Agent究竟意味着什么?它不仅仅是简单的“边想边做”,而是在显式推理(Reasoning)与工具调用(Tool Use)之间交替进行,并将推理结果作为“状态”持续带入后续步骤。

从技术本质上看,它将冗长、重度依赖工具的任务转化为稳定的“计划→行动→反思”循环;而其核心价值在于,通过复用假设、约束与部分结论(而不是每次从头推导),极大地减少了多轮任务中的“状态漂移”与重复性错误,确保每一步行动都基于最新的证据(Evidence)。


这一技术听着并不复杂,实际实现的难度并不简单,月之暗面联合创始人吴育昕在K2模型发布后曾在一次Ask Me Anything活动中坦言,支持“思考—工具—思考—工具”的交错模式是大模型中相对较新的行为,需要大量工作才能做好。

而DeepSeekV3.2的发布,标志着这一极具挑战的技术已不再是单一厂商的特色探索,而是正式成为了高性能模型的“标配”,从“先锋探索”走向了“行业共识”。

为何DeepSeek罕见押注Agent?

值得注意的是,在最新的技术报告中,DeepSeek罕见地将“Agent能力”提升到了与“推理能力”同等重要的战略位置。

从早期的Coder工具调用到如今的Thinking in Tool-Use,DeepSeek着重提及Agent本次不仅是功能的升级,更是对未来行业方向的预判。这背后并非简单的热点追逐,而是基于经济、数据与平台三个维度的深层逻辑。

从经济维度来看,过去一年行业发现了一个残酷的事实:仅靠聊天问答,商业价值难以规模化。

企业真正愿意付费的不是“更优美的回答”,而是“降本增效的行动”——自动生成报表、自动处理工单、自动写代码。

Agent给LLM装上了“眼睛+手+大脑”,使其从“对话式AI”进化为“动作式AI(Actionable AI)”,这才是真正能产生商业闭环的地方。

DeepSeek显然看到了这一点,试图通过Agent能力将模型从“聊天机器人”进化为真正的“数字劳动力”。

在数据层面,ScalingLaw遇到的瓶颈在Agent领域找到了突破口。

高质量的人类对话数据昂贵且有限,但Agent的任务轨迹(Trajectory)不同:它可以像DeepSeek此次构建的1,800个合成环境一样,通过自动化生成、判定和奖励(Reward),进行大规模的强化学习(RL)。

这意味着,Agent任务数据将成为未来最便宜、最可规模化的优质训练“燃料”。

而从平台逻辑的视角出发,大模型正在演变成调度工具、完成任务的通用操作系统。

未来的生态中,模型是内核,Agent是用户态程序,而插件则是工具。谁先占领了Agent的标准(如MCP、函数调用规范),谁就可能成为AI时代的Windows或iOS。DeepSeek发力智能体领域变意味着其思路已经从工具转变成基础设施提供商的转变。

如何缩小中外差距?

在DeepSeek最新的技术文档中,他们也毫不避讳的提到了一个观点:开源与闭源模型的差距,其实正在拉大。

DeepSeek表示,虽然推理模型的发布推动了整体性能的大幅跃升,但过去几个月中出现了明显的分化。闭源专有模型如Google、OpenAI、Anthropic的性能增长速度却显著更快,专有系统在复杂任务中展现出越来越强的优势。

DeepSeek认为,开源模型目前存在三个关键缺陷:首先是架构层面,对标准注意力机制的过度依赖严重制约了长序列处理的效率;其次在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了高难度任务的表现;最后在Agent领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署。

除了行业通病,DeepSeek也坦诚了自家的局限性。V3.2的世界知识广度仍落后于领先的专有模型,且为了达到Gemini3Pro的输出质量,V3.2通常需要生成更多的Token,导致效率较低。同时,在解决极其复杂的综合任务时,其表现仍不如前沿模型。

面对这些差距,DeepSeek给出了清晰的改进路线:计划在未来通过增加预训练计算量来填补知识空白,并专注于优化模型推理链的“智能密度”,提高效率,让模型学会“少说话、多办事”。

在海外社媒上,有网友评价DeepSeek此次发布是了不起的成就,认为匹配GPT-5和Gemini3 Pro的开源模型终于出现了,差距似乎正在消除。它不断证明,严谨的工程设计可以超越单纯的参数规模。

DeepSeek-V3.2的发布,给所有处于焦虑中的开源关注者打了一剂强心针。它证明了,让Sam Altman紧张、让Google炫耀的最强模型,并不是不可逾越的天堑。

模型发布后,DeepSeek研究员Zhibin Gou在X上发文:“如果Gemini-3证明了持续扩展预训练的可能性,DeepSeek-V3.2-Speciale则证明了在大规模上下文环境中强化学习的可扩展性。我们花了一年时间将DeepSeek-V3推向极限,得出的经验是:训练后的瓶颈需通过优化方法和数据来解决,而非仅等待更好的基础模型。”

他还补了一句:“持续扩大模型规模、数据量、上下文和强化学习。别让那些'遭遇瓶颈'的杂音阻挡你前进。”


这是DeepSeek团队少有的发声,而这一幕颇有意味,当行业在讨论Scaling Law是否撞墙时,DeepSeek用实打实的模型喊话,想证明Scaling没死,只是换了战场。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。