登录体验完整功能(收藏、点赞、评论等)

万亿参数+100万上下文!DeepSeek V4闭门内测细节曝光

近日,国产AI企业DeepSeek旗下新一代大模型DeepSeek V4的技术细节曝光,正以代号“sealion-lite”的预览版启动闭门内测。该模型拥有万亿参数规模,原生支持多模态处理,上下文窗口拓展至100万token,早期测试表现亮眼。为适配国产算力平台,DeepSeek提前联动华为等厂商,虽训练周期拉长致发布延后,却有望推动国产AI算力生态升级。

当国内AI厂商纷纷在大模型迭代赛道上提速时,DeepSeek的新一代旗舰模型却选择以低调的姿态进入核心验证阶段——其代号为“sealion-lite”的DeepSeek V4预览版已于近期开启闭门内测,仅向少量行业客户与技术合作伙伴开放,首批测试反馈的核心参数,直接将国产大模型的性能天花板抬升至新高度。

与前代V3模型相比,DeepSeek V4的进化堪称“颠覆性”。它首次实现原生多模态处理能力,无需依赖第三方插件或外挂模块,即可直接处理文本、图像、音频等多种类型的输入数据,这一特性使其在复杂场景下的交互效率远超同类产品。

更引人关注的是,DeepSeek V4将上下文窗口拓展至100万token——这意味着它能够一次性理解并处理相当于数百万汉字的长文本内容,比如整卷学术著作、百万字的企业合同或是完整的代码库,为长文档分析、法律合规审查等专业场景提供了原生支持。此外,模型的训练参数规模突破万亿级别,这一量级的算力投入,让V4在早期高难度任务测试中表现出远超前代的推理精度与逻辑复杂度。

DeepSeek此次在V4的研发上打破了行业“先训模型、后适配算力”的惯例,转而将国产算力平台的适配前置到训练阶段。据了解,团队提前向华为等国产芯片厂商开放模型访问权限,针对性优化模型架构以适配国产硬件,这一举措不仅降低了后续部署的成本门槛,更在底层层面推动国产AI算力生态的协同发展。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创