少找工具,多做创作

DeepSeek V4或于下周发布,适配国产芯片打造软硬协同闭环

知情人士透露,DeepSeek V4或于下周正式发布,这款大模型将全程基于国产芯片完成训练与推理,并针对华为昇腾、寒武纪思元系列芯片深度优化。此前DeepSeek V3.1已推出适配下一代国产芯片的定制格式,华为Atlas 950 SuperPoD算力规模达前代20多倍,此次软硬协同有望大幅提升国产AI生态竞争力,缩小与国际巨头的差距。

当国际AI巨头凭借“大模型+专属芯片”的闭环生态持续巩固优势时,国产AI领域正通过“底层算力+上层模型”的深度绑定,探索自主可控的突围路径。近日有知情人士爆料,深度求索(DeepSeek)旗下新一代大语言模型DeepSeek V4或于下周正式亮相,这将成为国产AI生态在软硬协同赛道的标志性事件。

不同于此前多数国产大模型依赖海外芯片完成核心训练环节,DeepSeek V4将实现全程基于国产芯片完成训练与推理的突破,并且针对华为昇腾、寒武纪思元两大国产主流芯片系列进行了深度适配优化。

这一布局并非突发之举,早在DeepSeek V3.1版本发布时,团队就推出了为下一代国产芯片定制的UE8M0 FP8格式,为大模型与国产算力的兼容打下技术基础。而此次V4版本的落地,将直接把这种技术铺垫转化为实际的生态竞争力,让国产大模型不再受限于海外算力底座的制约。

大模型的落地离不开强大算力的支撑,华为今年推出的Atlas 950 SuperPoD系列正是国产算力底座的核心代表。这款超节点集群支持8192张昇腾芯片,整体规模达到前代产品的20多倍,满配状态下占地约1000平方米,可实现FP8算力8E FLOPS、FP4算力16E FLOPS的极致性能,互联带宽更是达到16PB/s,足以支撑千亿甚至万亿参数大模型的高效训练。

这样的算力升级,不仅为DeepSeek V4的发布提供了坚实的硬件基础,也标志着国产算力集群已经具备了对标国际顶级水平的能力,为后续更多国产大模型的规模化落地扫清了硬件障碍。

长期以来,国产AI领域的发展多聚焦于单点突破——要么是芯片厂商独立攻坚,要么是大模型团队单独迭代,但这种分散式的发展模式很难形成合力,在面对国际巨头的闭环生态时往往处于被动。

而DeepSeek V4与国产芯片的深度绑定,以及华为Atlas集群的算力支撑,正是国产AI生态转向体系化竞争的关键信号。当大模型能够充分发挥国产芯片的性能,芯片厂商的技术迭代也能反向推动大模型的优化,这种正向循环将逐步构建起自主可控的国产AI生态,大幅缩小与国际巨头的差距,为国产AI在全球市场争取更多话语权。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯