2月28日,金融时报(FT)独家消息,AI公司深度求索(DeepSeek)将于下周推出全新多模态大语言模型V4,这是该公司自2025年1月发布R1推理模型后的首个重大版本更新。该模型原生支持图片、视频与文本生成功能,有望填补国内低成本、开源多模态模型的市场缺口。
与不少通过插件融合多模态能力的模型不同,DeepSeek V4采用原生多模态架构设计,将文本理解、图像生成、视频创作三大能力深度整合。用户无需切换不同工具或接口,仅通过自然语言指令就能完成从撰写营销文案、生成产品海报到制作宣传短视频的全链路内容生产,大幅提升创作效率。
回顾DeepSeek的产品路线,2025年1月发布的R1推理模型,凭借低部署成本、高效推理速度的优势,成为中小企业和开发者群体中的热门选择。此次V4模型延续了这一普惠定位,主打低成本、可开源的多模态解决方案,精准瞄准当前国内市场中,兼具跨模态生成能力与高性价比的产品缺口。
据报道,DeepSeek将在V4模型发布的同时,同步对外公开一份技术说明文档,核心介绍模型的架构设计与跨模态生成的关键技术亮点。业内普遍认为,这一动作是模型后续开源计划的前置铺垫——一旦开放模型权重,将吸引大量开发者基于V4搭建垂直场景的AI应用,进一步完善其生态版图。