2月26日路透社援引知情人士消息,AI公司DeepSeek即将推出的旗舰大语言模型DeepSeek V4打破行业惯例,未向长期合作的英伟达、AMD等海外芯片厂商开放早期访问权限,反而优先向华为等国内硬件供应商提供预发布版本,这一举措在AI模型与芯片厂商的协作体系中实属罕见。
在全球AI大模型产业的协作图谱里,有一条被默认了多年的“潜规则”:任何一款旗舰级大模型发布前,开发者都会第一时间把预发布版本同步给英伟达、AMD等海外芯片巨头——毕竟只有让硬件方提前适配优化,才能保证模型在全球90%以上的AI算力平台上跑通、跑快。这条不成文的规则,既是技术适配的刚需,更是AI产业生态中“芯片厂商主导算力话语权”的隐性体现。
据两位知情人士透露,DeepSeek即将推出的旗舰大语言模型DeepSeek V4彻底颠覆了这一规则。与行业普遍做法相反,该公司并未向英伟达、AMD等海外芯片巨头开放早期访问权限,反而将预发布版本的优先测试权交给了华为等国内硬件供应商。
值得注意的是,DeepSeek并非对这一惯例陌生——此前该公司曾与英伟达技术团队长期密切合作,旗下多款大模型均针对CUDA框架做了深度优化,此次“倒向”国内厂商的操作更显突兀。
这一反常规选择,或许暗合了国内AI产业“算力自主”的迫切需求。近年来,海外芯片管制趋严,国内AI厂商对自主可控算力平台的依赖度持续提升,华为昇腾系列芯片及配套的MindSpore框架已成为国内重要的替代方案。
不同于此前仅针对海外硬件做优化的模式,DeepSeek V4或将成为首款深度适配国产算力平台的头部大语言模型。此举既可以提前完成模型在国产算力集群上的性能调优,也能强化与国内硬件生态的绑定,降低对海外芯片供应链的依赖,为国产AI算力生态的协同发展提供新的可能性。
此前,英伟达正是通过这种“前置协作”模式,让几乎所有主流大模型都对CUDA框架做了深度优化,进一步巩固了其在AI算力市场的垄断地位。DeepSeek的“反常规”操作,相当于在固化的生态链条上撕开了一道口子。
如果更多国内AI厂商跟进这一模式,国产芯片厂商将获得更多与头部模型的协作机会,不再仅仅是海外生态的跟随者,全球AI算力的生态格局或许会出现微妙的倾斜。而对于DeepSeek而言,这一举措既是对行业惯例的挑战,也是一次押注国产算力生态的尝试——其最终效果,将随着DeepSeek V4的正式发布逐步显现。