英伟达与Meta达成跨世代战略合作 后者将部署数百万颗Blackwell GPU

20 小时前 AI快讯 3

英伟达与Meta达成跨世代战略合作 后者将部署数百万颗Blackwell GPU

AI大模型与智能体竞赛进入白热化阶段,全球科技巨头的算力军备竞赛再添重磅筹码。2月18日,英伟达正式宣布与Meta达成一项为期多年的跨世代战略合作,后者计划在超大规模AI数据中心部署数百万颗英伟达Blackwell GPU,同时引入专为智能体AI推理打造的下一代Rubin架构GPU,以及首次大规模独立应用的Arm架构Grace CPU,全面夯实自身AI算力底座。

这场合作并非单一产品的短期采购,而是覆盖多代算力平台的深度战略绑定。根据协议,Meta的算力升级将分阶段推进:首先落地的是Blackwell GPU集群,这款英伟达定位为下一代AI算力旗舰的芯片,凭借比上一代H100更高的能效比与集群扩展性,能为Meta的LLaMA系列大模型训练、AI内容生成、社交场景AI助手等任务提供强劲支撑。而面向未来,专为智能体AI推理优化的Rubin架构GPU则将承接Meta在智能体场景的长期算力需求——随着AI智能体逐步渗透社交交互、元宇宙沉浸场景,推理算力的缺口正以远超训练算力的速度扩大,Rubin的提前布局显然是瞄准了这一行业趋势。

值得注意的是,此次合作还打破了Meta过往的算力供应商格局。除了GPU,Meta将大规模采用英伟达Arm架构的Grace CPU,这也是Grace系列处理器首次在超大规模数据中心的独立场景中得到应用。不同于传统x86架构CPU,Grace专为AI工作负载优化,能与英伟达GPU实现低延迟互连,形成“CPU+GPU”的一体化算力集群,可进一步降低数据中心的运维成本,提升AI模型训练与推理的协同效率。

在AI行业,算力早已成为决定企业AI迭代速度的核心壁垒。Meta近年来在AI领域动作频频:从开源LLaMA系列大模型抢占技术生态,到推出Meta AI智能助手渗透社交场景,再到布局元宇宙中的AI交互应用,每一步都需要海量算力支撑。此前Meta曾采用多供应商的算力方案,但此次与英伟达的跨世代绑定,显然是希望通过统一的算力架构,实现AI研发效率的最大化,在与谷歌Gemini、OpenAI GPT系列的全球AI竞赛中占据优势。

对英伟达而言,与Meta的合作则进一步巩固了其在AI算力市场的主导地位。作为全球AI GPU的头号玩家,英伟达已经拿下了OpenAI、微软、谷歌等顶级科技巨头的大部分算力订单,此次数百万颗Blackwell GPU的订单,不仅是营收的重要增长极,更意味着其在智能体AI推理等新兴场景的技术路线得到了行业认可,为后续Rubin架构的市场化推广铺平了道路。

此次合作的曝光,也让全球AI算力军备竞赛的格局愈发清晰。随着大模型参数规模不断攀升、智能体AI场景持续拓展,企业对算力的需求正呈现指数级增长。Meta部署数百万颗Blackwell GPU后,其AI算力规模将跻身全球第一梯队,与微软Azure、谷歌云等云厂商的AI算力平台形成直接竞争。而这一合作也可能引发连锁反应:其他科技巨头或许会加快与算力供应商的深度绑定,或加大自研算力芯片的投入,以避免在算力竞赛中掉队。

从长期来看,英伟达与Meta的跨世代合作,不仅将推动Meta AI产品的快速迭代,也将进一步强化英伟达在AI算力生态中的话语权。在智能体AI即将爆发的前夜,这场算力布局的胜负,或许会在未来3-5年直接影响全球AI行业的竞争格局。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创