英伟达Blackwell架构获DeepSeek R1验证:能效吞吐量较Hopper提升50倍

1 小时前 AI快讯 1

英伟达Blackwell架构获DeepSeek R1验证:能效吞吐量较Hopper提升50倍

2月16日,英伟达公布其最新Blackwell Ultra AI架构(GB300 NVL72)的关键测试数据:通过大语言模型DeepSeek-R1的实际运行验证,该架构每兆瓦吞吐量较前代Hopper GPU提升50倍,每百万tokens推理成本降至仅为前者的35分之一。此外,英伟达还预告了下一代Rubin算力平台,其能效吞吐量将较Blackwell再提升10倍,为AI基础设施演进指明新方向。

随着大语言模型向万亿参数级、多模态融合方向快速迭代,算力成本与能效瓶颈正成为制约AI产业规模化落地的核心痛点。此前,英伟达Hopper架构凭借领先的算力密度,成为全球多数AI大模型训练与推理的首选平台,但高昂的电力消耗与运营成本,仍让不少中小AI企业望而却步。而Blackwell架构的测试结果,无疑为这一困境提供了突破性的解决方案。

此次测试选择DeepSeek-R1作为基准模型,并非偶然。作为当前大语言模型赛道的高性能代表,DeepSeek-R1以其复杂的模型结构和高算力需求,被行业视为检验AI芯片真实性能的“试金石”。英伟达通过实际运行验证得出的数据,而非实验室理想环境下的理论值,更具行业参考价值。其中每兆瓦吞吐量提升50倍的核心指标,意味着相同电力输入下,Blackwell能够处理的AI推理请求量是Hopper的50倍——这直接打破了数据中心算力密度与能效的天花板,对于全球各地正在扩建的AI数据中心而言,不仅能减少电力基础设施的投入,更能降低长期运营中的电力成本。

更让AI从业者振奋的是成本端的飞跃式下降。测试数据显示,基于Blackwell架构运行DeepSeek-R1时,每百万tokens的推理成本仅为Hopper时代的35分之一。对于依赖大模型推理的企业而言,这一数据意味着日常运营成本将出现量级式的缩减:以日均处理百亿级tokens的大型AI服务为例,年运营成本可从数千万元级降至百万元级,极大降低了AI商业化的门槛。此前因成本过高难以落地的场景,比如制造业的大规模质检、农业的全域病虫害监测等,未来或将通过低成本的大模型推理服务实现普及。

除了Blackwell的亮眼表现,英伟达还提前释放了下一代AI算力平台Rubin的规划。据预告,Rubin平台的每兆瓦吞吐量将在Blackwell的基础上再提升10倍,这意味着未来3-5年内,AI算力的能效比将实现从Hopper到Rubin的500倍提升。连续的技术迭代路径,不仅显示出英伟达在AI基础设施领域的长期布局,更向市场传递了明确信号:AI算力的能效革命才刚刚开始,未来大模型的运行成本将持续降低,为AI技术的普惠化铺平道路。

从Hopper到Blackwell,再到预告中的Rubin,英伟达正在用持续的技术突破重构AI算力的边界。随着Blackwell架构的逐步量产落地,AI产业的“算力焦虑”有望得到大幅缓解,而成本的下降则将点燃更多垂直领域的AI创新火花。可以预见,这场围绕算力能效的竞赛,将推动整个AI行业向更高效、更普惠的方向快速演进。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创