少找工具,多做创作

DeepSeek推出V2大模型:128K上下文窗口,性能追平GPT-4o

国内AI公司深度求索(DeepSeek)正式发布新一代通用大语言模型DeepSeek-V2,该模型支持128K超长上下文窗口,在MMLU、GSM8K等权威基准测试中得分逼近OpenAI GPT-4o,同步推出的多模态版本可处理文本、图像、音频输入,为金融、制造等企业级场景提供高效AI解决方案,标志着国内大模型在通用性能上进一步缩小与国际顶尖水平的差距。

想象一下,无需将百万字的项目合同拆分成数十段,AI模型就能一次性通读并精准提炼所有风险条款——这正是DeepSeek-V2大模型带来的新可能。该模型采用自研的MoE(混合专家模型)架构,搭配动态路由算法,在保持推理效率的前提下,将上下文窗口扩展至128K,相当于可容纳约10万字的文本内容。

在核心性能测试中,DeepSeek-V2表现亮眼:MMLU(多任务语言理解)测试得分为86.7%,仅比GPT-4o低0.3个百分点;GSM8K数学推理数据集上得分达92.6%,与GPT-4o的93%基本持平。这意味着其在复杂知识理解、逻辑推理等通用能力上,已追平国际顶尖模型的水平。

除了纯文本版本,DeepSeek同步推出DeepSeek-V2多模态模型,实现文本、图像、音频三大模态的无缝融合。例如,企业用户上传一张机械装配图纸,模型可快速识别零件参数、装配逻辑,生成标准化的操作手册;上传一段1小时的商务会议录音,能实时转写并提炼核心议题、行动项及时间节点。

在MMBench多模态基准测试中,该模型整体得分超过80%,尤其在视觉推理任务上表现突出——对包含复杂图表的技术文档,理解准确率较上一代提升了15个百分点。

当前国内大模型赛道已告别早期的“参数竞赛”,转向性能优化与场景落地的双重比拼。2024年以来,百度文心一言、阿里通义千问、字节豆包等头部模型均推出升级版本,不断拉长上下文窗口、强化多模态能力。

DeepSeek作为专注于通用大模型的创业公司,此前因代码大模型在开发者群体中积累了口碑,此次V2版本的发布,标志着其正式跻身国内通用大模型第一梯队。业内认为,这一突破也意味着国内AI企业在核心技术上,已从“跟跑”逐步进入“并行”阶段。

DeepSeek方面表示,接下来将面向企业用户开放API接口,针对金融、制造、教育等垂直场景提供定制化微调服务。例如,为金融机构打造法务文档审核模型,为制造企业开发工业设计辅助工具。

第三方数据显示,2024年国内企业级AI服务市场规模预计将突破300亿元,其中超长上下文与多模态融合技术是核心增长点。分析师指出,随着大模型技术同质化加剧,场景化落地能力将成为企业的核心竞争力,DeepSeek-V2的技术优势有望在垂直领域快速转化为商业价值。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯