登录体验完整功能(收藏、点赞、评论等)

DeepSeek V4启动闭门内测:100万token+原生多模态跨代升级

国产AI领军企业DeepSeek新一代大模型V4已启动闭门内测,代号“海狮轻量版”。据爆料方Legit披露,该万亿参数模型相比V3实现跨代升级,原生支持多模态处理,上下文窗口跃升至100万token,可一次性处理超长文本或代码,早期测试在复杂任务中表现优异。

当大多数大模型还在为突破128k、256k上下文窗口努力时,一款能一次性处理100万token的国产大模型已悄悄进入定向测试阶段——这正是DeepSeek V4带来的行业震动信号。

DeepSeek V4的预览版本已向特定合作方开放闭门内测,所有参与机构均签署了严苛的保密协议。相较于上一代V3模型,新模型实现了真正意义上的跨代升级,而非局部功能的小修小补。其核心特性的突破,直接瞄准了当前大模型能力的两大关键瓶颈:上下文长度与多模态处理效率。

100万token的上下文窗口是DeepSeek V4最具冲击力的升级。按照行业通用换算标准,1token约对应0.75个中文字,100万token相当于可一次性处理75万字左右的文本——这意味着它能轻松“消化”一本百万字规模的长篇小说、整套企业年度报告,甚至是包含数万行代码的大型代码库。早期内测反馈显示,在生成复杂SVG矢量图形这类高难度任务中,V4的性能显著优于当前主流的网页端或移动端AI模型,长文本逻辑推理的连贯性也得到了质的提升。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创