DeepSeek V4 Lite曝光:百万Tokens上下文 原生多模态升级

18 小时前 AI快讯 2

2月26日,消息源@legit_api在X平台爆料,DeepSeek正测试代号“Sealion-lite”的V4 Lite多模态AI模型。该模型搭载100万Tokens超长上下文窗口,是前代V3.2的7.8倍,还原生支持多模态推理,其“无思考生图”能力大幅超越前代,成为AI圈关于长文本与多模态融合的新焦点。

当行业多数大模型仍停留在200K-400K Tokens的上下文水平时,DeepSeek V4 Lite直接将这一指标推至百万级。对比前代V3.2的128K Tokens,7.8倍的跨度意味着它能一次性处理近百万字的完整书籍、万字级年度行业报告,或是跨数月的超长对话记录,无需频繁分段截断上下文。

对于法律文书分析、学术文献综述、长篇内容创作等专业场景,这种量级的支持足以重构AI的应用逻辑——用户无需反复向模型投喂分段内容,就能获得连贯、完整的分析结果,大幅降低长文本交互的时间和沟通成本。

V4 Lite的另一核心突破是原生多模态推理。不同于部分依赖插件拼接实现多模态功能的模型,V4 Lite从底层架构上支持文本与图像的协同处理,尤其在生图环节实现了“无前置思考”的高效生成。

用户无需等待模型先构建文本逻辑、再调用生图模块,输入指令后可直接输出高质量图像,无论是效率还是生成内容的精准度,都全面超越前代产品。这种原生融合的设计,让多模态交互更接近人类的自然思考路径,避免了插件式方案的割裂感。

DeepSeek推出“Lite”定位的V4版本,也透露出其分层市场的布局逻辑。当前大模型行业呈现“旗舰+普惠”双轨竞争态势,旗舰模型追求极致性能但成本高昂,而Lite版本则兼顾性能与落地成本,面向更广泛的C端用户和中小B端场景。

V4 Lite凭借长上下文与原生多模态的核心优势,既能满足专业用户的深度需求,也能降低普通用户的使用门槛,成为DeepSeek覆盖中低端市场、抢占用户心智的重要抓手。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创