2月11日,多名用户发现 DeepSeek 网页端与移动应用同步迎来版本更新。本次升级最引人瞩目的突破在于其上下文长度(Context Window)提升至1M(100万)Token,标志着其在大规模文档处理领域迈入了全球顶尖梯队。
从128K 到1M:处理能力的跨越式增长相较于去年8月发布的DeepSeek V3.1(其上下文长度为128K),本次更新将处理能力提升了近8倍。
实测表现: 经用户测试,DeepSeek 已能一次性“吞下”整本长篇小说(如超过24万 Token 的《简爱》),并精准识别和分析文档内容。
应用场景: 这意味着程序员可以上传整个项目代码库,学者可以一次性整理百万字的论文资料,办公族处理超长会议纪要或法律合同也将更加顺畅。
旗舰模型 DeepSeek V4仍在“蓄势”虽然本次更新显著提升了长文本能力,但业内消息显示,这可能只是 V3系列的一次小幅迭代升级。真正的重头戏——DeepSeek 下一代旗舰模型(预计为 V4)正处于研发后期。
据知情人士透露,由于该模型规模跨越至“万亿参数级”,训练复杂度的提升导致发布进程略有放缓。
此次升级引发了科技圈的广泛关注。网友纷纷表示,百万级上下文对编程和大数据分析是“重大的突破”。与此同时,市场上如QwenLong等模型也在长文本推理领域发力,国产 AI 的“长文本竞赛”正日趋白热化。





京公网安备 11011402013531号