DeepSeek V4启动闭门内测:100万token+原生多模态跨代升级

21 小时前 AI快讯 1

国产AI领军企业DeepSeek新一代大模型V4已启动闭门内测,代号“海狮轻量版”。据爆料方Legit披露,该万亿参数模型相比V3实现跨代升级,原生支持多模态处理,上下文窗口跃升至100万token,可一次性处理超长文本或代码,早期测试在复杂任务中表现优异。

当大多数大模型还在为突破128k、256k上下文窗口努力时,一款能一次性处理100万token的国产大模型已悄悄进入定向测试阶段——这正是DeepSeek V4带来的行业震动信号。

DeepSeek V4的预览版本已向特定合作方开放闭门内测,所有参与机构均签署了严苛的保密协议。相较于上一代V3模型,新模型实现了真正意义上的跨代升级,而非局部功能的小修小补。其核心特性的突破,直接瞄准了当前大模型能力的两大关键瓶颈:上下文长度与多模态处理效率。

100万token的上下文窗口是DeepSeek V4最具冲击力的升级。按照行业通用换算标准,1token约对应0.75个中文字,100万token相当于可一次性处理75万字左右的文本——这意味着它能轻松“消化”一本百万字规模的长篇小说、整套企业年度报告,甚至是包含数万行代码的大型代码库。早期内测反馈显示,在生成复杂SVG矢量图形这类高难度任务中,V4的性能显著优于当前主流的网页端或移动端AI模型,长文本逻辑推理的连贯性也得到了质的提升。

除了超长上下文,DeepSeek V4的另一大亮点是原生多模态处理能力。与许多后期通过插件融合多模态功能的模型不同,V4从底层架构设计阶段就支持文本、图像、音频等多模态数据的统一处理,这使得它在跨模态理解与生成任务中具备更高的效率和准确性。同时,这款模型被定位为万亿参数级别的巨型基础模型,庞大的参数规模为其性能突破提供了核心算力支撑,但也不可避免地拉长了训练周期,这或许是其选择先启动闭门内测的原因之一。

在国内外大模型竞争日益激烈的当下,DeepSeek V4的升级路径展现了国产模型的差异化思路。相较于部分同行在通用对话能力上的深耕,V4选择以超长上下文和原生多模态为突破口,瞄准专业领域的长文本分析、复杂代码开发、跨模态内容生成等细分场景。这种策略不仅能避开同质化竞争,更能为金融、法律、编程等专业领域的企业用户提供更贴合需求的AI解决方案。

目前,DeepSeek V4的正式发布时间尚未公布,但从此次闭门内测的技术参数来看,这款模型已具备冲击全球顶尖大模型阵营的实力,也将为国产AI的技术迭代注入新的动力。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创