登录体验完整功能(收藏、点赞、评论等)

少找工具,多做创作

英伟达Meta敲定千亿级跨世代合作 将部署数百万颗Blackwell GPU

英伟达Meta敲定千亿级跨世代合作 将部署数百万颗Blackwell GPU

2026年2月18日,英伟达与Meta正式对外宣布达成一项为期多年的跨世代战略合作伙伴关系。根据协议,Meta计划在其超大规模AI数据中心部署数百万颗英伟达Blackwell GPU,以及专为智能体AI推理打造的下一代Rubin架构GPU,同时大规模采用Arm架构的Grace CPU,业内预计此次合作规模将达千亿美元,成为全球AI算力基础设施建设领域的里程碑事件。

在大模型迭代速度加快、智能体AI成为行业新赛道的当下,算力已成为科技巨头角逐AI高地的核心壁垒。Meta作为全球AI领域的重要玩家,其开源大模型LLaMA系列已成为行业标杆,而随着智能体AI的兴起,对超大规模、低延迟的算力需求呈指数级增长。此次与英伟达的深度绑定,正是Meta为巩固其AI竞争力迈出的关键一步。

此次合作的核心看点之一,是Meta对英伟达新一代AI芯片的大规模部署。数百万颗Blackwell GPU的引入,将直接为Meta的AI数据中心注入顶级算力。作为英伟达接替Hopper架构的旗舰产品,Blackwell专为超大规模AI训练和推理设计,能够支持万亿参数级大模型的高效运算,其在能效比和算力密度上的提升,将帮助Meta降低大模型训练的时间成本和能源消耗。而专为智能体AI推理打造的下一代Rubin架构GPU,则瞄准了智能体实时交互、多任务并行的核心需求,这意味着Meta在智能体AI领域的布局已进入落地阶段,需要针对推理场景进行专项算力优化。

值得关注的是,此次合作并非局限于GPU领域,Meta还将大规模采用基于Arm架构的英伟达Grace CPU,这也是Grace系列处理器首次在如此大规模的独立场景中得到应用。Grace CPU以低功耗、高内存带宽为核心优势,能够与英伟达GPU实现无缝协同,构建“CPU+GPU”的全栈算力体系。对于Meta的超大规模数据中心而言,这种全栈融合的方案不仅能提升AI工作负载的整体运行效率,还能在长期运营中降低能耗和硬件维护成本。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创