当前位置: 首页 » 资讯 » 新科技 » 正文

DeepSeek 迎来版本更新:上下文长度跃升至1M,万亿参数旗舰模型在路上

IP属地 中国·北京 编辑:钟景轩 Chinaz 时间:2026-02-12 10:59:17

2月11日,多名用户发现 DeepSeek 网页端与移动应用同步迎来版本更新。本次升级最引人瞩目的突破在于其上下文长度(Context Window)提升至1M(100万)Token,标志着其在大规模文档处理领域迈入了全球顶尖梯队。

从128K 到1M:处理能力的跨越式增长

相较于去年8月发布的DeepSeek V3.1(其上下文长度为128K),本次更新将处理能力提升了近8倍。

实测表现: 经用户测试,DeepSeek 已能一次性“吞下”整本长篇小说(如超过24万 Token 的《简爱》),并精准识别和分析文档内容。

应用场景: 这意味着程序员可以上传整个项目代码库,学者可以一次性整理百万字的论文资料,办公族处理超长会议纪要或法律合同也将更加顺畅。

旗舰模型 DeepSeek V4仍在“蓄势”

虽然本次更新显著提升了长文本能力,但业内消息显示,这可能只是 V3系列的一次小幅迭代升级。真正的重头戏——DeepSeek 下一代旗舰模型(预计为 V4)正处于研发后期。

据知情人士透露,由于该模型规模跨越至“万亿参数级”,训练复杂度的提升导致发布进程略有放缓。

此次升级引发了科技圈的广泛关注。网友纷纷表示,百万级上下文对编程和大数据分析是“重大的突破”。与此同时,市场上如QwenLong等模型也在长文本推理领域发力,国产 AI 的“长文本竞赛”正日趋白热化。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。