DeepSeek 迎来版本更新:上下文长度跃升至1M,万亿参数旗舰模型在路上

2月11日,多名用户发现 DeepSeek 网页端与移动应用同步迎来版本更新。本次升级最引人瞩目的突破在于其上下文长度(Context Window)提升至1M(100万)Token,标志着其在大规模文档处理领域迈入了全球顶尖梯队。

从128K 到1M:处理能力的跨越式增长

相较于去年8月发布的DeepSeek V3.1(其上下文长度为128K),本次更新将处理能力提升了近8倍。

● 实测表现: 经用户测试,DeepSeek 已能一次性“吞下”整本长篇小说(如超过24万 Token 的《简爱》),并精准识别和分析文档内容。
● 应用场景: 这意味着程序员可以上传整个项目代码库,学者可以一次性整理百万字的论文资料,办公族处理超长会议纪要或法律合同也将更加顺畅。

旗舰模型 DeepSeek V4仍在“蓄势”

虽然本次更新显著提升了长文本能力,但业内消息显示,这可能只是 V3系列的一次小幅迭代升级。 真正的重头戏——DeepSeek 下一代旗舰模型(预计为 V4)正处于研发后期。

据知情人士透露,由于该模型规模跨越至“万亿参数级”,训练复杂度的提升导致发布进程略有放缓。

此次升级引发了科技圈的广泛关注。网友纷纷表示,百万级上下文对编程和大数据分析是“重大的突破”。与此同时,市场上如QwenLong等模型也在长文本推理领域发力,国产 AI 的“长文本竞赛”正日趋白热化。

via AI新闻资讯 (author: AI Base)
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]