当前位置: 首页 » 资讯 » 新科技 » 正文

DeepSeek V3.1上线:架构调整与能力优化并存

IP属地 中国·北京 编辑:唐云泽 三言科技 时间:2025-08-22 08:06:47

DeepSeek于8月19日晚间上线了全新的V3.1版本,官方强调上下文长度拓展至128k,但此次更新的核心在于模型底层架构的演进。V3.1采用混合推理架构,使用一个模型同时支持思考模式与非思考模式,用户通过API调用时,模型明确标识为V3,而非过去的R1。这种架构调整简化了部署和运维,提高了算力利用效率,但也可能影响非推理任务的能力。

在能力优化方面,DeepSeek V3.1的编程能力大幅提升。根据Aider编程基准测试数据,V3.1取得了71.6%的高分,超越了此前的R1版本和闭源模型Claude 4 Opus。在SVGBench测试中,V3.1仅次于GPT-4.1-mini,远超前代R1;在多任务语言理解的MMLU测试中,V3.1得分达到88.5%,表现不逊于GPT-5。不过,在研究生级别问答(GPQA)和软件工程(SWE-Bench)等领域,V3.1与GPT-5相比仍存在差距。

DeepSeek V3.1的成本效益也显著提升。完成一次完整的编程任务,V3.1的成本仅需约1.01美元,远低于Claude 4 Opus(便宜68倍)。官方宣布的最新价格表显示,输入价格为0.5元/百万tokens(缓存命中),4元/百万tokens(缓存未命中),输出价格为12元/百万tokens,该价格于2025年9月6日00:00起生效。成本下降主要得益于思维链压缩训练,减少了无意义的思维链输出。

V3.1的智能体能力也显著增强,通过后训练优化,新模型在工具使用与智能体任务中表现突出。在SWE-bench Verified基准测试中,V3.1得分66.0分,远超前代;在Terminal-Bench测试中,V3.1得分31.3分,是前代的五倍以上。在网页浏览和工具调用能力上,V3.1也获得了全面增强。

然而,V3.1的“模型融合”策略引发了社区的激烈争论。部分用户反馈,V3.1版本重新出现了幻觉严重和中英夹杂的问题,且在面对复杂问题时表现出“能省则省”的倾向。此外,DeepSeek激进的更新策略也引发了商业API用户的不满,新模型直接覆盖旧模型,且不提供旧版本的API,导致线上生产业务的API可能在毫无预警的情况下被更改,严重影响了商业应用的稳定性。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。