DeepSeek最新动作。
12月1日晚间,DeepSeek发布两个正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。
据悉,目前DeepSeek官方网页端、App 和 API 均已更新为正式版 DeepSeek-V3.2。Speciale 版本目前仅以临时 API 服务形式开放,以供社区评测与研究。
据悉,DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用。在公开的推理类 Benchmark 测试中,DeepSeek-V3.2 达到了 GPT-5 的水平,仅略低于 Gemini-3.0-Pro;相比 Kimi-K2-Thinking,V3.2 的输出长度大幅降低,显著减少了计算开销与用户等待时间。
DeepSeek-V3.2-Speciale 的目标是将开源模型的推理能力推向极致,探索模型能力的边界,是 DeepSeek-V3.2 的长思考增强版,同时结合了 DeepSeek-Math-V2 的定理证明能力。
据DeepSeek透露,DeepSeek-V3.2-Speciale 在主流推理基准测试上的性能表现媲美 Gemini-3.0-Pro。同时,V3.2-Speciale 模型成功斩获 IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)、ICPC World Finals 2025(国际大学生程序设计竞赛全球总决赛)及 IOI 2025(国际信息学奥林匹克)金牌。其中,ICPC 与 IOI 成绩分别达到了人类选手第二名与第十名的水平。
对于DeepSeek此前发布的实验性的DeepSeek-V3.2-Exp,中原证券研报认为,该模型基于V3.1-Terminus构建,引入了新的注意力机制DSA,在保持模型性能稳定的同时,在训练推理效率方面有了较大的提升,带来了模型较大幅度的降价。考虑到当前大模型之间能力差距在缩小,成本的下降意味着模型具有更好的性价比和可推广性,也将促进应用端实现更多功能的落地。
综合自:DeepSeek微信公众号、中原证券
责编:万健祎
校对:高源
版权声明
证券时报各平台所有原创内容,未经书面授权,任何单位及个人不得转载。我社保留追究相关行为主体法律责任的权利。





京公网安备 11011402013531号