英伟达Vera Rubin AI系统登场:每瓦性能较前代提10倍

1 天前 AI快讯 2

2月26日,英伟达AI基础设施负责人Dion Harris在加州总部展示下一代AI系统Vera Rubin,该系统由全球80余家供应商提供130万个零部件,核心搭载72颗Rubin GPU与36颗Vera CPU。其每瓦性能较前代Grace Blackwell提升10倍,功耗翻倍但能效比跃升,首次采用100%液冷散热,数据传输速度达260TB/秒,计划于2024年晚些时候推出。

当AI大模型参数规模突破万亿级别,数据中心的算力供给与能耗成本之间的矛盾正愈发尖锐——据行业测算,训练一个千亿参数大模型的能耗相当于数千个家庭一年的用电量。正是在这样的背景下,英伟达带来了下一代AI系统Vera Rubin,试图以极致能效比重构AI基础设施的天花板。

作为英伟达Grace Blackwell系统的继任者,Vera Rubin的核心竞争力聚焦在能效比的跨越式提升。官方数据显示,其每瓦性能较前代直接提升10倍,尽管整体功耗相比Grace Blackwell翻了一番,但能效比的跃升完全覆盖了功耗增长带来的成本。支撑这一突破的是其核心硬件组合:72颗Rubin GPU与36颗Vera CPU形成的异构计算架构,能够在相同功耗下处理数倍于前代的AI计算任务,为大模型训练、生成式AI应用等场景提供更高效的算力支撑。

Vera Rubin的落地并非英伟达单厂之力,而是全球供应链协同的成果。据Dion Harris介绍,该系统由全球80余家供应商提供总计130万个零部件,从核心芯片的晶圆制造到散热模组的精密加工,每一个环节都经过严格的性能测试。这种全球化供应链布局,既保证了零部件的品质与产能,也为大型AI系统的定制化设计提供了更多可能性。

为了支撑高密度算力的稳定运行,Vera Rubin首次采用100%液冷散热方案,相比传统风冷散热,液冷能够更高效地带走芯片运行产生的热量,进一步降低散热环节的能耗损耗。同时,系统的内部数据传输速度达到260TB/秒,这意味着不同芯片之间可以实现近乎无延迟的信息交互,大幅提升多GPU集群的并行计算效率。此外,英伟达还透露,基于Vera Rubin架构的下一代Kyber机架,将把GPU数量提升至288块,为超大规模AI集群搭建做好准备。

在当前AI算力需求年增速超50%的市场环境下,能效比的提升直接关系到AI应用的落地成本。Vera Rubin的推出,不仅为英伟达巩固了在AI基础设施领域的领先地位,更给整个行业树立了新的标杆——未来的AI算力竞争,不再是单纯的算力规模比拼,而是能效比、可靠性、协同能力的综合较量。对于企业用户而言,Vera Rubin的到来意味着可以用更低的能耗成本支撑更大规模的AI部署,加速生成式AI、自动驾驶等领域的技术落地。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创