登录体验完整功能(收藏、点赞、评论等) — 已累计有 8622 人加入

让AI触手可及,让应用激发潜能

DeepSeek推出V2通用大模型:万亿参数解锁多模态新边界

国内AI初创公司DeepSeek正式发布通用大语言模型DeepSeek-V2,该模型采用原生多模态架构,搭载万亿级参数规模,在MMLU、MMMU等全球权威基准测试中跻身Top2。此次发布填补了国内大模型在多模态深度融合领域的技术空白,为制造、金融等垂直行业的AI应用落地提供了更高效的底层支撑。

随着单模态大模型的性能趋近天花板,多模态融合已成为全球大模型竞争的核心赛道。据IDC发布的《全球AI大模型市场跟踪报告》显示,2024年全球多模态大模型市场规模将突破35亿美元,年增长率达127%。企业端需求正从单一文本生成转向多数据类型处理,比如制造业需要AI识别工业图像缺陷同时生成检测报告,金融机构需要AI分析财报文本的同时解读数据可视化图表。OpenAI、谷歌等国际巨头先后推出GPT-4o、Gemini 1.5系列多模态模型,国内厂商也加速布局,文心一言4.0、通义千问2.0均强化了多模态能力。

不同于多数厂商采用的“文本大模型+多模态插件”拼接式方案,DeepSeek-V2采用原生多模态架构,将文本、图像、音频信号统一编码为向量空间,实现三种模态数据的深度交互。该模型搭载万亿级参数规模,训练数据集涵盖12万亿tokens文本、2亿张标注图像及5000小时多语言音频数据,其中包含大量工业、医疗等垂直领域的专业数据。在核心基准测试中,DeepSeek-V2在MMLU通用知识测试中准确率达86.3%,GSM8K数学推理任务中登顶全球第一,人类偏好评估显示其多模态响应的实用性、准确性均优于GPT-4o的基础版本。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创