登录体验完整功能(收藏、点赞、评论等) — 已累计有 8625 人加入

让AI触手可及,让应用激发潜能

DeepSeek V4 Lite曝光:百万Tokens上下文 原生多模态升级

2月26日,消息源@legit_api在X平台爆料,DeepSeek正测试代号“Sealion-lite”的V4 Lite多模态AI模型。该模型搭载100万Tokens超长上下文窗口,是前代V3.2的7.8倍,还原生支持多模态推理,其“无思考生图”能力大幅超越前代,成为AI圈关于长文本与多模态融合的新焦点。

当行业多数大模型仍停留在200K-400K Tokens的上下文水平时,DeepSeek V4 Lite直接将这一指标推至百万级。对比前代V3.2的128K Tokens,7.8倍的跨度意味着它能一次性处理近百万字的完整书籍、万字级年度行业报告,或是跨数月的超长对话记录,无需频繁分段截断上下文。

对于法律文书分析、学术文献综述、长篇内容创作等专业场景,这种量级的支持足以重构AI的应用逻辑——用户无需反复向模型投喂分段内容,就能获得连贯、完整的分析结果,大幅降低长文本交互的时间和沟通成本。

V4 Lite的另一核心突破是原生多模态推理。不同于部分依赖插件拼接实现多模态功能的模型,V4 Lite从底层架构上支持文本与图像的协同处理,尤其在生图环节实现了“无前置思考”的高效生成。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创