英伟达Meta敲定千亿级跨世代合作 将部署数百万颗Blackwell GPU

1 小时前 AI快讯 0

英伟达Meta敲定千亿级跨世代合作 将部署数百万颗Blackwell GPU

2026年2月18日,英伟达与Meta正式对外宣布达成一项为期多年的跨世代战略合作伙伴关系。根据协议,Meta计划在其超大规模AI数据中心部署数百万颗英伟达Blackwell GPU,以及专为智能体AI推理打造的下一代Rubin架构GPU,同时大规模采用Arm架构的Grace CPU,业内预计此次合作规模将达千亿美元,成为全球AI算力基础设施建设领域的里程碑事件。

在大模型迭代速度加快、智能体AI成为行业新赛道的当下,算力已成为科技巨头角逐AI高地的核心壁垒。Meta作为全球AI领域的重要玩家,其开源大模型LLaMA系列已成为行业标杆,而随着智能体AI的兴起,对超大规模、低延迟的算力需求呈指数级增长。此次与英伟达的深度绑定,正是Meta为巩固其AI竞争力迈出的关键一步。

此次合作的核心看点之一,是Meta对英伟达新一代AI芯片的大规模部署。数百万颗Blackwell GPU的引入,将直接为Meta的AI数据中心注入顶级算力。作为英伟达接替Hopper架构的旗舰产品,Blackwell专为超大规模AI训练和推理设计,能够支持万亿参数级大模型的高效运算,其在能效比和算力密度上的提升,将帮助Meta降低大模型训练的时间成本和能源消耗。而专为智能体AI推理打造的下一代Rubin架构GPU,则瞄准了智能体实时交互、多任务并行的核心需求,这意味着Meta在智能体AI领域的布局已进入落地阶段,需要针对推理场景进行专项算力优化。

值得关注的是,此次合作并非局限于GPU领域,Meta还将大规模采用基于Arm架构的英伟达Grace CPU,这也是Grace系列处理器首次在如此大规模的独立场景中得到应用。Grace CPU以低功耗、高内存带宽为核心优势,能够与英伟达GPU实现无缝协同,构建“CPU+GPU”的全栈算力体系。对于Meta的超大规模数据中心而言,这种全栈融合的方案不仅能提升AI工作负载的整体运行效率,还能在长期运营中降低能耗和硬件维护成本。

目前,英伟达与Meta的工程团队已启动联合优化工作,目标是针对Meta的核心生产级AI工作负载实现全栈加速。这意味着双方将把英伟达的CPU、GPU、网络技术及CUDA软件工具链,与Meta的超大规模生产环境进行深度适配——从大模型训练的算力调度,到智能体推理的延迟优化,每一个环节都将得到定制化的性能提升。这种深度协作,也打破了以往“硬件采购+软件适配”的传统合作模式,转向了从底层架构到上层应用的全链条协同。

业内人士分析,千亿美元的合作规模不仅凸显了AI算力市场的巨大潜力,也反映出科技巨头对AI基础设施的投入正在进入“超大规模”阶段。对于英伟达而言,与Meta的长期合作将进一步巩固其在AI芯片市场的龙头地位,尤其是Blackwell和Rubin架构的大规模落地,将为其积累更多实际场景的运营数据,推动后续产品的迭代优化。对于Meta来说,稳定的顶级算力供应将加速其AI产品的落地节奏,无论是大模型的迭代、智能体应用的推出,还是元宇宙场景中的AI交互体验,都将得到算力的强力支撑。

从行业层面看,此次合作也将对AI算力市场格局产生深远影响。一方面,英伟达与头部科技公司的深度绑定,可能进一步拉大其与竞争对手的差距,强化AI芯片领域的马太效应;另一方面,Arm架构Grace CPU的大规模应用,也将挑战x86架构在数据中心CPU市场的长期垄断,推动异构计算成为AI数据中心的主流方案。

随着AI技术的不断演进,算力需求仍将持续攀升。英伟达与Meta的这场跨世代合作,不仅是两家巨头的战略布局,更是AI行业迈向智能体时代的重要信号。未来,这种全栈式的算力协同模式或许会成为行业常态,推动AI技术向更高效、更智能的方向发展。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创