DeepSeek升级至1M Token上下文窗口 万亿参数模型在路上 2月11日,AI模型DeepSeek的网页端与移动应用同步完成版本迭代,其核心突破在于将上下文窗口长度提升至100万(1M)Token,较此前128K版本的处理能力跃升近8倍,可一次性处理整本长篇小说、完整项目代码库等大规模文本,正式跻身全球长文本处理顶尖模型梯队,同时业内透露其万亿参数旗舰模型正蓄势待发。 2月11日一早,不少DeepSeek的忠实用户打开网页端或APP时,都收到了版本更新提示,而此次升级的核心亮点,很快在AI社区引发热议——上下文窗口直接从128K跃升至1M Token。这一变化并非数字上的简单增长,而是AI在大规模文本处理能力上的跨越式突破。 回顾去年8月发布的DeepSeek V3.1,其128K的上下文窗口已能满足多数日常文本处理需求,但面对长篇小说、整项目代码库、百万字科研文献等超大规模文本时,仍需分段上传、多次交互,不仅效率低下,还可能丢失文本前后逻辑关联。此次更新后,1M Token的处理能力较此前提升近8倍,按1Token约对应75个中文字符计算,相当于可一次性读取约75万字的中文内...